La conversación en Facebook que pudo haber alertado de un ataque en Londres

El soldado británico Lee Rigby, apuñalado en mayo de 2013 en Londres por dos extremistas islámicos. Derechos de autor de la imagen PA
Image caption El soldado británico Lee Rigby fue apuñalado en mayo de 2013 en Londres por dos extremistas islámicos.

Los detalles sobre el asesinato de un soldado británico, Lee Rigby, el año pasado en Londres a manos de dos extremistas islámicos han reavivado el debate en torno a los límites entre el derecho a la privacidad de los usuarios de internet y la seguridad de la población.

¿Hasta qué punto son las compañías tecnológicas como Facebook, Google o Twitter responsables en la lucha antiterrorista?

Según el Comité de Inteligencia y Seguridad británico (ISC por sus siglas en inglés), sí tienen un importante papel en la prevención.

En el informe sobre la muerte de Rigby publicado esta semana, el comité sugiere que hay una "posibilidad significativa" de que los servicios de inteligencia británicos del MI5 podían haber prevenido la muerte del soldado si la red social Facebook hubiera compartido con ellos detalles sobre uno de los asesinos.

El documento público del ISC no nombra específicamente a Facebook, pero la BBC entiende que sí lo hizo en el informe completo que le entregó al primer ministro británico.

¿Cómo actuó Facebook en el caso Rigby?

Derechos de autor de la imagen PA
Image caption Michael Adebolajo y Michael Adebowaleyo atropellaron a Rigby antes de apuñalarlo hasta la muerte en una calle de Londres.

En diciembre de 2012, cinco meses antes del crimen, Michael Adebowale, ahora condenado a cadena perpetua, dijo durante una conversación en Facebook con un extremista extranjero que quería matar a un soldado y habló sobre sus planes "de la manera más gráfica y emotiva posible", según el informe del CIS.

Su interlocutor, que tenía vínculos con el grupo extremista con sede en Yemen AQAP, sugirió varias maneras distintas de matar a un soldado, incluido el uso de un cuchillo.

En mayo de 2013, Michael Adebolajo y Michael Adebowale atropellaron a Rigby antes de apuñalearlo hasta la muerte en una calle del concurrido barrio de Woolwich, en Londres.

Según el informe del comité, Facebook debe hacer más para luchar contra el extremismo.

"Si el MI5 (servicio de inteligencia británico) hubiera tenido acceso a este intercambio, su investigación de Adebowale se habría convertido en una prioridad", dice el informe del ISC.

Pero una portavoz de Facebook dijo que sus políticas son claras.

Derechos de autor de la imagen Reuters
Image caption Facebook considera que tiene una política clara para lidiar con contenidos extremistas y que ya colabora con las agencias de seguridad.

"No permitimos contenido terrorista en el sitio y tomamos medidas para prevenir que la gente use nuestros servicios para este tipo de objetivos", dijo.

Tras el asesinato de Lee Rigby trascendió que Facebook había bloqueado siete cuentas de Adebowale antes del crimen, cinco de las cuales habían sido identificadas por tener vínculos con el terrorismo.

Pero estos bloqueos fueron resultado de un proceso automatizado, según información Centro de Comunicaciones del Gobierno británico (GCHQ, por sus siglas en inglés), una de las tres agencias de inteligencia de Reino Unido.

Es decir, ninguna persona de Facebook revisó manualmente el contenido de esas cuentas, ni se le pasó el material a las autoridades para que lo revisaran.

Según el periodista de la BBC experto en tecnología, Rory Cellan-Jones, cuando Facebook identifica claramente una amenaza de crimen, por ejemplo, un hombre que habla sobre asesinar a su esposa, la red social contacta a las autoridades.

En el caso particular de la muerte del soldado Lee Rigby, parece que Facebook no identificó esa conversación explícita entre Adebowale y otro extremista y por lo tanto no alertó a las autoridades de la misma.

"La cuestión aquí es si, habiéndolo identificado ya como una persona que compartía contenido extremista (por las cuentas bloqueadas), la compañía no debería haberlo monitoreado y después alertado a las autoridades", se pregunta Cellan-Jones.

¿Cuánto más podría hacer Facebook?

Derechos de autor de la imagen Getty
Image caption ¿Hasta qué punto son las compañías tecnológicas como Facebook, Google o Twitter responsables en la lucha antiterrorista?

Facebook considera que ya hace bastante para bloquear el contenido extremista en su sitio y para colaborar con las agencias de seguridad.

En cada página hay un vínculo que le permite a los usuarios denunciar cualquier contenido que rompa las reglas de la red social, desde pornografía hasta material extremista.

Además, Facebook tiene cuatro centros con empleados dedicados a supervisar el sitio y sobrellevar las alertas de abuso.

Pero con 1.300 millones de usuarios en todo el mundo es probable que haya un gran número de personas en conflicto con sus respectivos gobiernos, y el volumen de casos potencialmente considerados como amenazas de terrorismo puede ser muy grande.

Según Cellan-Jones, si bien sería técnicamente posible tener sistemas que escaneen cada mensaje en busca de palabras clave relacionadas con el terrorismo, alertar a las autoridades cada vez que surge algo es dar un paso enorme tanto para Facebook como para otras compañías tecnológicas.

"Además, estas son empresas globales y si desarrollan ese tipo de relación con las autoridades británicas, otros gobiernos, desde Rusia y Egipto hasta Uzbekistán querrán cerrar un trato similar", apunta el periodista.

"Y su definición de lo que constituye terrorismo puede ser muy diferente de la de Reino Unido o Estados Unidos".

¿Quién debe vigilar la red?

Derechos de autor de la imagen AFP
Image caption ¿Es justo pedirle a firmas como Facebook que supervisen todas las actividades en su sitio en busca de posibles contenidos terroristas?

El antiguo director de operaciones antiterroristas de la agencia de espionaje británica MI6 Richard Barrett, le dijo a la BBC este miércoles que es "injusto" pedirle a firmas como Facebook que supervisen todas las actividades en su sitio en busca de posibles contenidos terroristas.

Barrett dijo también que sería "casi imposible" exigirles a las empresas que les pasen información relacionada con actividades terroristas.

Pero esta semana el primer ministro británico David Cameron dijo que las grandes compañías tecnológicas tenían la "responsabilidad social" de emprender acción al ver contenido terrorista subido a internet.

Por su parte el informe del ISC destaca que las agencias de seguridad del Reino Unido enfrentan "dificultades considerables" a la hora de acceder a contenidos de Facebook y de otras cinco compañías tecnológicas con sede en Estados Unidos: Apple, Google, Microsoft, Twitter y Yahoo.

Derechos de autor de la imagen AP
Image caption Los extremistas saben cómo aprovechar internet para diseminar su ideología.

Todas estas empresas están sufriendo presiones contradictorias.

Desde las revelaciones de Snowden sobre la extensión de la vigilancia a los ciudadanos están tratando de asegurales a sus usuarios que no le están pasando material a las autoridades sin el debido proceso legal.

Pero ahora se encuentran con que una nueva legislación podría obligarlos a ser más activos en la batalla contra el terrorismo y a preocuparse menos por la privacidad de sus usuarios, dice Cellan-Jones.

El grupo británico Open Rights Group, que lucha por los derechos digitales de los ciudadanos, cree que el gobierno no debe utilizar el asesinato de Lee Rigby como una excusa para justificar la vigilancia masiva de toda la población del país.

"El comité es particularmente engañoso al sugerir que las compañías estadounidenses no colaboran y es bastante extraordinario pedirles a estas empresas que supervisen activamente el contenido de los e-mails en busca de material sospechoso", dijo su director Jim Killock.

"Las compañías de internet ni pueden ni deben convertirse en un brazo de la vigilancia del estado", concluyó.

Siga la sección de tecnología de BBC Mundo a través de @un_mundo_feliz

Contenido relacionado