- OpenAI lanza un detector 'Deepfake' para investigadores de desinformación - Aruaru kenko

OpenAI lanza un detector ‘Deepfake’ para investigadores de desinformación

Mientras los expertos advierten que las imágenes, el audio y el video generados por IA podrían influir en las elecciones de otoño, OpenAI está lanzando una herramienta diseñada para detectar contenido creado por su popular generador de imágenes, DALL-E. Pero la destacada empresa emergente de inteligencia artificial reconoce que esta herramienta es solo una pequeña parte de lo que se necesitará para combatir los llamados deepfakes en los meses y años venideros.

El martes, OpenAI dijo que compartiría su nuevo detector de falsificaciones con un pequeño grupo de investigadores de desinformación para que pudieran probar la herramienta en situaciones del mundo real y ayudar a identificar formas de mejorarla.

«Se trata de generar nuevas investigaciones», dijo Sandhini Agarwal, investigadora de OpenAI que se centra en seguridad y política. «Es realmente necesario».

OpenAI dijo que su nuevo detector podría identificar correctamente el 98,8% de las imágenes creadas por DALL-E 3, la última versión de su generador de imágenes. Pero la compañía dijo que la herramienta no fue diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.

Debido a que este tipo de detector de deepfake se basa en probabilidades, nunca podrá ser perfecto. Entonces, como muchas otras empresas, organizaciones sin fines de lucro y laboratorios académicos, OpenAI está trabajando para combatir el problema de otras maneras.

Al igual que los gigantes tecnológicos Google y Meta, la compañía se une al comité directivo de la Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, un esfuerzo por desarrollar credenciales para contenido digital. El estándar C2PA es una especie de “etiqueta nutricional” para imágenes, vídeos, clips de audio y otros archivos que muestra cuándo y cómo fueron producidos o modificados, incluso con inteligencia artificial.

OpenAI también dijo que está desarrollando formas de poner marcas de agua en los sonidos generados por IA para que puedan identificarse fácilmente en el momento. La empresa espera que estas marcas de agua sean difíciles de eliminar.

Anclado por empresas como OpenAI, Google y Meta, el sector de la inteligencia artificial se enfrenta a una presión cada vez mayor para dar cuenta del contenido que generan sus productos. Los expertos piden a la industria que evite que los usuarios generen material engañoso y dañino y que ofrezca formas de rastrear su origen y distribución.

En un año lleno de elecciones importantes en todo el mundo, los pedidos de formas de rastrear la procedencia del contenido de IA son cada vez más desesperados. En los últimos meses, el audio y las imágenes ya han influido en las campañas políticas y en las votaciones en lugares como Eslovaquia, Taiwán e India.

El nuevo detector de deepfake de OpenAI puede ayudar a solucionar el problema, pero no lo resolverá. Como dijo la Sra. Agarwal: En la lucha contra los deepfakes, “no existe una solución milagrosa”.