Tecnología
Teléfono móvil, ordenador, Twitter, Facebook y redes sociales. PD

Facebook anuncia que comenzará a utilizar inteligencia artificial para ayudar a eliminar el contenido inapropiado de esa red social, esta medida responde a las quejas constantes de que no se hace lo suficiente para evitar el contenido extremista en las plataformas de redes sociales.

La inteligencia artificial se utilizará en gran medida junto con moderadores humanos que revisan el contenido caso por caso.

Sin embargo, los desarrolladores esperan que su uso se expanda con el paso del tiempo, dijo Monika Bickert, jefa de gestión de políticas mundiales de Facebook.

Como explica Sheera Frenkel este 19 de junio de 2017 en 'The New York Times', una de las primeras aplicaciones de la tecnología es identificar el contenido que claramente viole los términos de uso de Facebook, como fotografías y videos de decapitaciones u otras imágenes grotescas, y hacer que los usuarios ya no puedan subirlas al sitio web.

"Recientemente, hemos visto más ataques terroristas, de manera trágica", dijo Bickert.

"Conforme suceden más ataques, hay más personas que le preguntan a las empresas de redes sociales qué están haciendo para eliminar este contenido".

En una publicación en su blog, Facebook describió cómo un sistema de inteligencia artificial puede aprender a identificar frases clave que previamente hayan sido reportadas por apoyar a un grupo terrorista.

Según los voceros de Facebook, el mismo sistema podría aprender a identificar a usuarios de Facebook que se relacionan con páginas de grupos que promueven contenido extremista, o quienes regresan al sitio web una y otra vez para crear cuentas falsas con tal de difundir ese tipo de contenido en línea.

"Idealmente, algún día nuestra tecnología se encargará de todo. En este momento está en fase de desarrollo".

Sin embargo, explicó que todavía se necesita que los moderadores humanos revisen el contenido según el contexto.

Brian Fishman, el gestor de políticas contraterroristas de Facebook, dijo que la empresa tenía un equipo de 150 especialistas que trabajan en 30 lenguas y se encargan de revisar el contenido.

Facebook ha recibido críticas por no hacer lo suficiente para monitorear su sitio y eliminar contenido publicado por grupos extremistas. En mayo, Theresa May, la primera ministra del Reino Unido, anunció que buscará que las empresas de internet -entre ellas Facebook- hagan más por monitorear y detener a estos grupos.

El domingo, YouTube también dijo que mejorará sus procesos para remover los videos de contenido extremista. Además etiquetarán como peligrosos otros que no necesariamente violan la política de contenidos pero en los que, por ejemplo, se habla de subyugar a alguna religión.

J. M. Berger, un miembro del International Centre for Counter-Terrorism en La Haya, dijo que gran parte del desafío para empresas como Facebook es averiguar qué califica como terrorismo, una definición que podría aplicarse a más que declaraciones a favor de grupos como el Estado Islámico.

"El problema, como siempre, es determinar qué es extremista y qué no lo es, y va más allá de los yihadistas".

"¿Acaso solo están hablando del EI y Al Qaeda, o irán más allá para atacar el nacionalismo blanco y los movimientos neonazi?".

Bickert dijo que Facebook tenía la esperanza de que la nueva tecnología de inteligencia artificial pudiera usarse para contrarrestar cualquier forma de extremismo que violara los términos de uso de la empresa, aunque por el momento se enfocará de manera restringida.

Sin embargo, persisten las preguntas sobre el programa. "¿Será efectivo o se excederá?", preguntó Jillian York, la directora de libertad de expresión internacional de la Electronic Frontier Foundation.

"¿Están tratando de desanimar a las personas para que no se unan a grupos terroristas en un principio o para que no publiquen contenido terrorista en Facebook?".