En Estados Unidos el presidente Barack Obama pidió ayuda a los grupos tecnológicos después de la matanza de San Bernardino, uno de cuyos autores había prometido lealtad a la organización yihadista Estado Islámico (EI) en Facebook.
La Comisión Europea organizó recientemente un foro para iniciar un diálogo entre los gobiernos y las grandes empresas de Internet sobre la lucha contra la radicalización y la propaganda terrorista.
Varias reuniones similares se realizaron en Francia, que fue escenario doble de ataques terroristas en enero y noviembre. Los diputados franceses han modificado la ley del estado de emergencia con el fin de bloquear algunas publicaciones en línea y se ha previsto la puesta en marcha de sistemas de contrapropaganda.
Violación de las libertades
El uso generalizado de Internet por los yihadistas inquieta, especialmente las campañas que realiza el llamado Estado Islámico “que pueden convertirse en virales”, señaló el miércoles el director del FBI, James Comey.
“Estamos en una nueva era, donde los grupos terroristas como el Estado Islámico utilizan las redes sociales para reinventar la forma en que reclutan y planean sus ataques” , insiste la senadora demócrata Dianne Feinstein, coautora de un proyecto de ley que obligaría a las empresas tecnológicas a informar cuando tengan conocimiento de posibles actividades terroristas.
“Esta información puede ser la clave” para detener los yihadistas, asegura. Pero el sector tecnológico y los defensores de las libertades civiles temen posibles consecuencias indirectas de esta ley.
El texto no define claramente el contenido previsto y cubre un “enorme universo”, incluidas las redes sociales, los motores de búsqueda, los blogs, los servicios de mensajería o de almacenamiento de datos, señalaron el viernes en una carta nueve organizaciones agrupadas en la Asociación de Internet, que congrega a los gigantes del sector.
“La gama es increíblemente extensa”, indica Emma Llanso, pues va mucho más allá del simple retiro de contenido público para obligar a “divulgar la información personal de un usuario y el contenido de sus comunicaciones” , entre otras violaciones a la privacidad.
Ello llevaría a las empresas optar por multiplicar los informes innecesarios, para cubrirse, o por el contrario no examinar ningún contenido para no estar al tanto de nada, advierten los críticos del proyecto.
“En ambos casos, la ley tiene consecuencias no deseadas que son contraproducentes”, resume la abogada Sophia Cope, especializada en derechos civiles y de las nuevas tecnologías de la Electronic Frontier Foundation.
Eliminar contenidos
Las principales redes sociales ya prohíben claramente actividades “terroristas” en sus servicios. “El terrorismo, la propaganda y los que le hacen apología no pertenecen a Facebook” , las normas de uso “destierran todos los contenidos explícitamente pro-terrorista” , dice Monika Bickert, directora responsable de la gestión de contenido de esa red.
Un discurso similar tienen en Twitter, donde sostienen que “equipos alrededor del mundo investigan activamente informes de violaciones de las normas y se trabaja con las autoridades cuando es el caso”.
“YouTube rechaza el terrorismo y tiene un sólido historial de rápida actuación contra los contenidos terroristas” , añade por su parte un portavoz de la filial de Google Alphabet.
Sus previsiones se basan siempre en la presentación de reportes de los usuarios de informes sobre contenidos controvertidos y que son luego revisados por equipos especializados que deciden si se debe retirar o cerrar la cuenta.
“Si encontramos contenido o cuentas a favor del terrorismo, nuestros equipos utilizan herramientas especializadas para detectar otras cuentas asociadas” , señala Bickert, quien subraya la importancia que tiene para Facebook el poder de mantener el contenido ofensivo publicado en Internet “para denunciar, condenar, expresar la solidaridad o el horror” .
YouTube también guarda los “vídeos publicados con una clara intención de informar o de documentar” los hechos.
Pero la proliferación de los mensajes hace titánica cualquier tarea. Llanso señala que mientras “millones de contenidos se reciben cada día, haciendo imposible la idea de una posible supervisión proactiva” , al mismo tiempo “hacer una evaluación subjetiva del material es difícil de una forma automática” .
Actualmente hay software que de hecho puede detectar infracciones de derechos de autor o contenido pedófilo de forma automática, mediante la comparación con archivos de referencia proporcionados por los estudios de cine o imágenes oficiales de pornografía infantil, pero no hay ningún archivo o perfil estándar para contenido a favor del terrorismo.