El gigante estadounidense Meta anunció este martes que «en los próximos meses» identificará cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads.
«En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA», anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog.
La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre, consignó la agencia de noticias AFP.
El representante de Meta indicó que la compañía quiere «hacer lo mismo con contenidos creados con herramientas de otras empresas» como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock.
«Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación», subrayó.
Los riesgos de la IA
El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación y casi la mitad de la población mundial celebrará elecciones este año.
Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas («deepfakes») pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.
Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.
Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, «no eliminará» totalmente el riesgo de producción de imágenes falsas, «ciertamente minimizará» su proliferación «dentro de los límites de lo que la tecnología permite actualmente».
«No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo», dijo Clegg a AFP.
«Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos», agregó el líder de Meta, que está dispuesto a «compartir» su tecnología abierta «tan ampliamente como sea posible».
La empresa californiana OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación, y afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.
«Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique» al proceso democrático, explicó OpenAI, que señaló que su generador de imágenes DALL-E 3 contiene «salvaguardas» para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.