CEO de OpenAi solicitó al Senado de EE.UU. licencias gubernamentales para los sistemas basados en ia
El consejero delegado de OpenAI, Sam Altman, en su testificación al Senado de EE.UU. habló sobre los peligros potenciales de la tecnología de inteligencia artificial fabricada por su empresa y otras y ha instado a los legisladores a imponer requisitos de licencia y otras regulaciones a las organizaciones que fabrican sistemas avanzados de IA como el GPT-4 de OpenAI. "Creemos que la intervención reguladora de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más potentes" , afirmó Altman. "Por ejemplo, el gobierno de EE.UU. podría considerar una combinación de requisitos de licencias y pruebas para el desarrollo y la liberación de modelos de IA por encima de un umbral de capacidades". Aunque Altman alabó los beneficios de la IA, dijo que OpenAI está "bastante preocupada" por las elecciones que se verán afectadas por el contenido generado por la IA. "Dado que vamos aenfrentarnos a unas elecciones el año que viene y estos modelos están mejorando, creo que se trata de un área de preocupación significativa.... Creo que sería muy sensato regular este tema", dijo Altman. Altman intervino en una audiencia celebrada por la Subcomisión de Privacidad, Tecnología y Legislación del Comité Judicial del Senado. También testificó Christina Montgomery, Directora de Privacidad y Confianza de IBM. "IBM insta al Congreso a adoptar un enfoque de regulación de precisión de la IA", dijo Montgomery. "Esto significa establecer normas para regir el despliegue de la IA en casos de uso específicos, no regular la tecnología en sí". Montgomery dijo que el Congreso debe definir claramente los riesgos de la IA e imponer "diferentes reglas para diferentes riesgos", con las reglas más fuertes "aplicadas a los casos de uso con los mayores riesgos para las personas y la sociedad." Por su parte, el senador y el senador Dick Durbin (D-Ill.) dijo que es notable que las grandes empresas vinieran al Senado a "suplicarnos que las regulemos". Tomando en cuenta que oportunidades anteriores OpenAi e IBM se han dispuesto a enfrentar nuevas normas. Altman sugirió que el Congreso forme una nueva agencia que conceda licencias a la tecnología de IA "por encima de una cierta escala de capacidades y pueda retirar esa licencia para garantizar el cumplimiento de las normas de seguridad". Antes de que un sistema de IA se ponga a disposición del público, debería haber auditorías independientes realizadas por "expertos que puedan decir que el modelo cumple o no estos umbrales de seguridad establecidos y estos porcentajes en las preguntas X o Y" , dijo. Altman dijo que le preocupa que la industria de la IA pueda "causar un daño significativo al mundo". "Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos hacernos oír al respecto", dijo Altman. "Queremos trabajar con el gobierno para evitar que eso ocurra" .
Altman dijo que no cree que deban aplicarse requisitos onerosos a empresas e investigadores cuyos modelos están mucho menos avanzados que los de OpenAI. Sugirió que el Congreso "defina umbrales de capacidad" y coloque los modelos de IA que puedan realizar determinadas funciones dentro del estricto régimen de licencias. Como ejemplos, Altman dijo que podrían exigirse licencias para modelos de IA "que puedan persuadir, manipular, influir en el comportamiento de una persona, en sus creencias " o "ayudar a crear nuevos agentes biológicos". Altman dijo que sería más sencillo exigir licencias para cualquier sistema que supere un determinado umbral de potencia informática, pero que preferiría trazar la línea reguladora en función de capacidades específicas. OpenAI está formada por entidades con y sin ánimo de lucro. Altman afirma que el modelo GPT-4 de OpenAI tiene "más probabilidades de responder de forma útil y veraz y de rechazar solicitudes perjudiciales que cualquier otro modelo de capacidad similar" , en parte debido a las exhaustivas pruebas y auditorías previas a su lanzamiento: "Antes de lanzar cualquier sistema nuevo, OpenAI lleva a cabo pruebas exhaustivas, contrata a expertos externos para que realicen revisiones detalladas y auditorías independientes, mejora el comportamiento del modelo e implementa sólidos sistemas de seguridad y supervisión. Antes de lanzar GPT-4, nuestro último modelo, pasamos más de seis meses realizando exhaustivas evaluaciones, red teaming externo y peligrosas pruebas de capacidad". Altman también afirmó que las personas deberían poder optar por que no se utilicen sus datos personales para entrenar modelos de IA. OpenAI anunció el mes pasado que los usuarios de ChatGPT ya pueden desactivar el historial de chat para evitar que las conversaciones se utilicen para entrenar modelos de IA. Los senadores escucharon a Gary Marcus, autor que fundó dos empresas de IA y aprendizaje automático y es profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York. En su comparecencia de hoy ha afirmado que la IA puede crear mentiras persuasivas y ofrecer consejos médicos perjudiciales. Marcus también criticó a Microsoft por no retirar inmediatamente el chatbot Sydney después de que mostrara un comportamiento alarmante. "Sydney tenía claramente problemas... Yo lo habría retirado temporalmente del mercado y ellos no lo hicieron", dijo Marcus. "Eso fue una llamada de atención para mí y un recordatorio de que incluso si tienes empresas como OpenAI que es una organización sin ánimo de lucro... otras personas pueden comprar esas empresas y hacer lo que quieran con ellas. Puede que ahora tengamos un conjunto estable de actores, pero la cantidad de poder que tienen estos sistemas para moldear nuestras opiniones y nuestras vidas es realmente significativa y eso sin entrar en los riesgos de que alguien pueda reutilizarlos deliberadamente para todo tipo de malos propósitos." Como consecuencia de los posibles riesgos de estos sistemas, a lgunos críticos de la IA han pedido que se detenga su desarrollo y un grupo de investigación sin ánimo de lucro ha acusado a OpenAI de lanzar GPT-4 sin tener debidamente en cuenta sus riesgos. Altman ha afirmado hoy que los lanzamientos iterativos son mejores porque "lanzarse a construir un sistema de IA superpotente en secreto y lanzarlo al mundo de golpe, creo que no saldría bien". "Una gran parte de nuestra estrategia es, mientras estos sistemas sean relativamente débiles y profundamente imperfectos, encontrar formas de que la gente tenga experiencia con ellos... y averiguar qué tenemos que hacer para que sean más seguros y mejores" , dijo Altman. El senador Richard Blumenthal (Demócrata por Connecticut), presidente de la subcomisión, dijo que "debería exigirse a las empresas de IA que probaran sus sistemas, revelaran los riesgos conocidos y permitieran el acceso a investigadores independientes". Almant, no es el único que está preocupado por esta situación, Elon Musk en oportunidades anteriores también ha solicitado hacer una pausa a la ia, debido a los "grandes peligros que suponen para la humanidad". Finalmente, habrá que esperar si el Senado aprueba la creación de agencias que se encarguen de la regulación de la ia o de otorgar licencias para desarrollo de las mismas, puesto que según algunos senadores es imposible detener ahora este proceso de desarrollo.
El consejero delegado de OpenAI, Sam Altman, en su testificación al Senado de EE.UU. habló sobre los peligros potenciales de la...