top of page

Denuncia ante la FTC a OpenAI por infringir las normas con el ChatGPT-4



Una denuncia pública podría frenar temporalmente el despliegue de ChatGPT y sistemas de IA similares. La organización de investigación sin ánimo de lucro “Center for AI and Digital Policy” (CAIDP) ha presentado una denuncia ante la Comisión Federal de Comercio (FTC) en la que alega que OpenAI está infringiendo la Ley FTC con la publicación de grandes modelos de IA lingüística como el GPT-4. Ese modelo es "parcial, engañoso" y amenaza tanto la privacidad como la seguridad pública, alega la CAIDP. Asimismo, supuestamente incumple las directrices de la Comisión que exigen que la IA sea transparente, justa y fácil de explicar.


El Centro quiere que la FTC investigue a OpenAI y suspenda futuros lanzamientos de grandes modelos lingüísticos hasta que cumplan las directrices de la agencia. Los investigadores quieren que OpenAI exija revisiones independientes de los productos y servicios de GPT antes de su lanzamiento. El CAIDP también espera que la FTC cree un sistema de notificación de incidentes y normas formales para los generadores de IA.


La FTC ha declinado hacer comentarios. El presidente del CAIDP, Marc Rotenberg, fue uno de los firmantes de una carta abierta en la que se pedía a OpenAI y a otros investigadores de IA que detuvieran su trabajo durante seis meses para dar tiempo a debates éticos. El fundador de OpenAI, Elon Musk, también firmó la carta.


Los detractores de ChatGPT, Google Bard y modelos similares han advertido de que los resultados son problemáticos e incluyen afirmaciones inexactas, incitación al odio y prejuicios. Según el CAIDP, los usuarios tampoco pueden repetir los resultados. El Centro señala que la propia OpenAI advierte de que la IA puede "reforzar" ideas sean o no ciertas. Aunque las actualizaciones como la GPT-4 son más fiables, preocupa que la gente confíe en la IA sin comprobar dos veces su contenido.


No hay garantías de que la FTC vaya a actuar en respuesta a la denuncia. Sin embargo, si establece requisitos, la medida afectaría al desarrollo de todo el sector de la inteligencia artificial. Las empresas tendrían que esperar a las evaluaciones y podrían sufrir más repercusiones si sus modelos no cumplen las normas de la Comisión. Aunque esto podría mejorar la rendición de cuentas, también podría ralentizar el rápido ritmo actual de desarrollo de la IA.

bottom of page