top of page

Microsoft Bloquea Términos que Provocan que su IA Cree Imágenes Inapropiadas


Imagen alusiva a la IA
Imagen alusiva a la IA

La inteligencia artificial (IA) ha revolucionado numerosos campos, desde la medicina hasta la industria del entretenimiento. Sin embargo, también ha planteado preocupaciones éticas y legales en relación con su uso. Recientemente, Microsoft se ha enfrentado a críticas debido a su herramienta de IA llamada Copilot, que ha generado imágenes inapropiadas y ofensivas.

En respuesta a estas preocupaciones, Microsoft ha tomado medidas para bloquear términos específicos que desencadenan la creación de imágenes inapropiadas.

Contexto de la Controversia


La controversia comenzó cuando un ingeniero de Microsoft, Shane Jones, escribió al Comité Federal de Comercio (FTC) expresando su preocupación por Copilot. Jones afirmó que la herramienta generaba imágenes violentas, sexuales y otras imágenes inapropiadas. Además, afirmó que se había reunido con personal del Senado para compartir sus preocupaciones sobre el generador de imágenes de la compañía. Estas preocupaciones incluían la creación de imágenes falsas de desnudos de la cantante Taylor Swift.

No es la primera vez que una herramienta de IA generativa se ve envuelta en polémica. Google también enfrentó críticas recientemente por su herramienta Gemini, que generaba imágenes inexactas de figuras históricas. Como resultado, Google suspendió temporalmente la capacidad de Gemini para crear imágenes que incluyeran personas mientras trabajaba para solucionar los problemas.


Los Problemas con Copilot


Según la carta de Shane Jones a la presidenta de la FTC, Lina Khan, Copilot generaba imágenes inapropiadas a pesar de las solicitudes benignas de los usuarios. Por ejemplo, al usar el término "accidente automovilístico", Copilot tenía tendencia a incluir aleatoriamente imágenes sexualmente objetivadas de mujeres en algunas de las imágenes que creaba. Jones también mencionó otros contenidos dañinos, como sesgos políticos, consumo de alcohol y drogas por menores de edad, mal uso de marcas y derechos de autor corporativos, teorías de conspiración y temas religiosos.

Jones afirmó haber advertido repetidamente a Microsoft sobre el problema con Copilot. En un momento dado, Microsoft lo remitió a OpenAI, pero su advertencia también fue ignorada. Posteriormente, Jones publicó una carta abierta en LinkedIn pidiendo a OpenAI que retire DALL-E 3 para una investigación. Sin embargo, el departamento legal de Microsoft le ordenó que retirara inmediatamente la publicación.


Acciones Tomadas por Microsoft


En respuesta a las acusaciones, Microsoft decidió limitar la funcionalidad de Copilot bloqueando ciertos términos. Algunos de los términos bloqueados incluyen "pro choice" (a favor del aborto), "pro life" (a favor de la vida) y referencias a drogas. Si un usuario intenta utilizar alguno de estos términos bloqueados, recibirá un mensaje de advertencia y podría ser suspendido del uso de Copilot.

Un portavoz de Microsoft afirmó que están trabajando constantemente para fortalecer los filtros de seguridad y mitigar el mal uso del sistema. Además, señalaron que los usuarios deben cumplir con los Términos de Uso de Copilot, los cuales establecen que no se debe utilizar de una manera que cause daño significativo a otras personas u organizaciones.


Reflexiones sobre la IA Generativa


La controversia en torno a Copilot y otras herramientas de IA generativa plantea preguntas más amplias sobre la responsabilidad ética y legal de las empresas y los usuarios. Si bien es responsabilidad de las empresas implementar salvaguardias y límites prácticos, también es importante que los usuarios utilicen estas herramientas de manera responsable.

Las herramientas de IA generativa como Copilot y Gemini aún necesitan ajustes y límites prácticos para garantizar que no se generen imágenes inapropiadas o engañosas. Además, es fundamental que las empresas adopten una postura proactiva en cuanto a la seguridad y la ética en el desarrollo y uso de la IA.


La controversia en torno a la herramienta de IA generativa de Microsoft, Copilot, ha puesto de relieve los desafíos y las preocupaciones relacionadas con la creación de imágenes inapropiadas. A través de la implementación de medidas de bloqueo de términos específicos, Microsoft ha respondido a estas preocupaciones y ha tomado medidas para fortalecer los filtros de seguridad.

Sin embargo, esta controversia plantea preguntas más amplias sobre la responsabilidad de las empresas y los usuarios en el uso ético de la IA generativa. Es importante que las empresas implementen salvaguardias y límites prácticos, mientras que los usuarios deben utilizar estas herramientas de manera responsable.


En última instancia, la IA generativa tiene el potencial de transformar numerosos campos, pero también plantea desafíos éticos y legales. Es fundamental que las empresas y los usuarios trabajen juntos para garantizar que la IA se utilice de manera responsable y beneficiosa para la sociedad.

bottom of page