Periodistadigital América Home
3 segundos 3 segundos
Coronavirus Coronavirus La segunda dosis La segunda dosis Noticias Blogs Videos Temas Personajes Organismos Lugares Autores hemeroteca Enlaces Medios Más servicios Aviso legal Política de Privacidad Política de cookies
-

El mecanismo es conocido como 'aprendizaje de pocas oportunidades'

Meta genera una IA para detectar contenido dañino

Este nuevo tipo de Inteligencia Artificial se entrena en semanas en lugar de meses

Alejandro de Santiago Pérez 10 Dic 2021 - 13:16 CET
Archivado en:

Más información

Meta (Facebook) ayuda a la nueva plataforma que lucha contra la ‘porno venganza’

Los usuarios de Facebook tienen la opción de ajustar la cantidad de publicaciones de su sección de noticias

Meta, la matriz de Facebook, ha creado un nuevo tipo de Inteligencia Artificial (IA) que detecta contenido dañino y reduce el tiempo necesario para su entrenamiento de meses a semanas.

El mecanismo, conocido como ‘aprendizaje de pocas oportunidades‘ (few-shot learning), busca desarrollar nuevas herramientas automáticas que se puedan adaptar de forma más rápida al abuso para tomar medidas o para detectar tipos de contenido que evolucionan rápidamente, como ha informado Meta a través de un comunicado.

Los mecanismos de IA que detectan el contenido dañino suelen encontrarse con el problema de que tardan meses en entrenarse y que necesitan miles o millones de ejemplos etiquetados para crear un sistema concreto.

Para solucionar este problema, Meta ha desarrollado y desplegado un sistema que tiene en cuenta que para aprender muchas nuevas tareas sobre temas determinados pueden usarse una cantidad mucho menor de ejemplos etiquetados, que puede llegar a ser de cero.

El sistema de aprendizaje de pocas oportunidades puede usarse tanto para texto en cien idiomas diferentes como para imágenes, y sirve como apoyo para mejorar los sistemas de IA existentes en redes sociales como Facebook contra el contenido nocivo.

Meta ha explicado que la nueva tecnología pueden funcionar en tres situaciones: sin ejemplos de políticas, con descripciones de políticas con menos de 50 ejemplos y con la posibilidad de afinar los resultados por parte de los desarrolladores de aprendizaje automático, con pocos ejemplos.

La compañía estadounidense ya ha utilizado el nuevo sistema para tareas concretas como identificar el contenido engañoso o sensacionalista que animaba a los usuarios a no vacunarse contra la Covid-19, en las que los sistemas tradicionales podrían haber pasado por alto contenidos prohibidos.

Meta ha asegurado también que el uso del aprendizaje de pocas oportunidades ha servido para ayudar a reducir la prevalencia de otros ejemplos de contenido dañino como el discurso del odio en sus redes sociales en los últimos meses.

Más en Tecnología

CONTRIBUYE CON PERIODISTA DIGITAL

QUEREMOS SEGUIR SIENDO UN MEDIO DE COMUNICACIÓN LIBRE

Buscamos personas comprometidas que nos apoyen

CONTRIBUYE

Mobile Version Powered by