Google, Meta y OpenAI se unen para luchar contra el contenido falso generado por la IA

Aplicaciones de Facebook y Google. / RR SS.
Aplicaciones de Facebook y Google. / RR SS.
Estas iniciativas responden a la preocupación por la propagación descontrolada de información falsa, especialmente ante la amenaza de los 'deepfakes'. También han manifestado su compromiso de evitar el uso de la IA en los procesos electorales de 2024.
Google, Meta y OpenAI se unen para luchar contra el contenido falso generado por la IA

Después de invertir cuantiosos recursos en mejorar la inteligencia artificial generativa, Google, Meta y OpenAI han unido fuerzas con la Coalición para la Procedencia y Autenticidad de Contenido (C2PA) para abordar el desafío de la identificación de contenido generado por IA. Estas medidas buscan contrarrestar los riesgos asociados a la difusión de información falsa, particularmente a través de tecnologías como los 'deepfakes'.

La Coalición C2PA propone un certificado estándar y ha logrado la participación de diversas entidades, desde gigantes tecnológicos hasta medios de comunicación y fabricantes de cámaras. Google, Meta y OpenAI, conscientes de la magnitud del problema, han expresado su compromiso con la iniciativa y su intención de implementar medidas efectivas en sus plataformas.

Las estrategias propuestas por estas compañías abarcan desde marcas visibles en las propias imágenes hasta mensajes ocultos en los metadatos de los archivos o incluso en los píxeles generados por IA. Google, con su herramienta en fase beta llamada SynthID, también busca identificar audios generados por inteligencia artificial. No obstante, todas las empresas reconocen que no existe una solución única que funcione en todos los casos.

A pesar de las limitaciones técnicas identificadas en el estándar C2PA para la inserción de información en los metadatos de la imagen, estas compañías están comprometidas a explorar nuevas vías para abordar el problema de la desinformación. La necesidad de protegerse anticipadamente, especialmente en un año con múltiples procesos electorales en importantes países, es un factor determinante en la urgencia de estas medidas.

Aunque no proporcionan plazos específicos, Google, Meta y OpenAI han asegurado que en los próximos meses comenzarán a aplicar etiquetas en diversos idiomas para facilitar la identificación de contenido generado por IA en todas sus aplicaciones. Nick Clegg, presidente de Asuntos Públicos de Meta, destaca la importancia de desarrollar estas capacidades y aplicarlas preventivamente ante la posible influencia de contenido falso en eventos electorales cruciales.

Meta, que engloba plataformas como Instagram, Facebook y Threads, se compromete no solo a etiquetar visualmente las imágenes generadas por sus propias herramientas de IA, sino también a detectar y identificar aquellas que se compartan en sus redes. El esfuerzo colaborativo de estas gigantes tecnológicas refleja su reconocimiento de la importancia de abordar conjuntamente los desafíos derivados de la inteligencia artificial generativa y su impacto en la desinformación. @mundiario

Comentarios