Los mecanismos de detección de ‘fake news’ no son tan fiables como aparentan

El MIT cree que estos mecanismos de inteligencia artificial contienen sesgos y que deberían someterse a pruebas más rigurosas para que sean realmente útiles.

Las herramientas de detección de fake news no son todo lo efectivas que debieran ser, valga la paradoja, según un estudio del Massachussets Institute of Technology (MIT). La revelación podría echar por tierra muchos de los esfuerzos que los principales gigantes de Internet vienen haciendo hasta la fecha. Google, Facebook y Twitter, entre otros, están librando una batalla contra la desinformación, eso sí a golpe de presiones públicas, para garantizar, por ejemplo, la total transparencia en las campañas electorales. No obstante, estos mecanismos no son la única arma de estas poderosas multinacionales. Por ejemplo, Facebook cuenta también con un nutrido grupo de medios de comunicación que colabora en la verificación de las publicaciones.

En cualquier caso, el MIT explica que estos detectores deben someterse a pruebas más rigurosas para que puedan cumplir sus cometidos. Y es que su investigación ha descubierto cómo los patrones de lenguaje de los modelos de inteligencia artificial vinculan una serie de registros tanto a noticias verídicas como a falsas. Estas redes neuronales aprenden a partir de una gran cantidad de datos para reconocer señales lingüísticas indicativas de artículos falsos, lo que hacen con bastante precisión ya que con toda la información que ingieren pueden separar con fidelidad los hechos de la ficción. Pero el problema, cuentan desde el grupo, es el denominado de “caja negra”, es decir, que no se sabe qué patrones analizan las redes durante el proceso de aprendizaje, por lo que podrían contener sesgos. Además, están siempre probados sobre las mismas temáticas, lo que puede limitar su potencial para cambiar a nuevas tendencias, algo muy común en las noticias que circulan por la red.

Por último, estas herramientas no solo clasifican las palabras, sino que las comparan con la información de origen, es decir la página de Internet de las que nacen. Desde el Instituto no solo han demostrado este hecho, sino que han creado su propio modelo con un enfoque distinto que clasifica los artículos basándose únicamente en patrones de lenguaje sin combinarlos con URL. “Un problema todavía a resolver para la inteligencia artificial y el aprendizaje automático es que te da una respuesta y no sabes de dónde procede”, cuenta Nicole O’Brien, miembro del grupo de investigación del MIT. “Nosotros queríamos entender los procesos de decisión del clasificador basándonos solo en el lenguaje, ya que podríamos obtener información añadida sobre las características particulares de las noticias falsas”.

Fuente: cso.computerworld.es

 

Artículos Relacionados

DEJA UN COMENTARIO:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.