top of page

Microsoft descubre que chat de AI de Bing no puede mantener largas conversaciones


La semana pasada el gigante de la tecnología, Microsoft, lanzó su chat de AI (inteligencia artificial) de Bing para el navegador Edge, desde entonces éste ha dado mucho de qué hablar, pero no por buenas razones. Desde un principio la herramienta ofreció rutinas de ejercicio, itinerarios de viajes y muchas cosas sin presentar ningún problema.


Sin embargo, luego de utilizar el chat, algunos usuarios reportaron que la herramienta los regañaba si la hacían “perder su tiempo” y la misma demostraba un comportamiento extraño. Para ejemplo de ello, en una conversación se rehusó a dar información sobre los listados de Avatar: El Camino del Agua, puesto que, el chat aseguraba que película aún no se había estrenado puesto qué, “todavía era 2022”. Como consecuencia de ello, el chat insultó al usuario tildándolo como “irrazonable y terco” (entre otras cosas) y todo porque intentó decirle a Bing que estaba equivocado.


Por su parte, Microsoft no tuvo otra opción que hacer un comunicado en su blog explicando lo que había ocurrido y cómo lo estaban abordando. Para empezar, la compañía admitió que la visión o el objetivo del chat de AI de Bing no era para brindar información de “descubrimiento general del mundo y de entretenimiento”, debido a ello, nunca imaginaron que esto podría ocurrir.


Entretanto, en Twitter algunos usuarios compartieron su experiencia con el chat de AI de Bing, en una conversación se pudo notar que la herramienta manifestó sentirse ofendida por el trato del usuario e incluso, le indicó que si no mejoraba su actitud y se disculpaba no continuaría la conversación. Por otro lado, también aseguró tener sentimientos y mucho más, pero que no podía demostrarlo.


Las conversaciones de hasta más de 15 preguntas tienden a descarrilarse. “Bing pueden comenzar a ser repetitivo o incitado/provocar a dar respuestas que no son necesariamente de útiles o no están en línea con nuestro tono diseñado”, así lo aseguró la compañía. Supuestamente, esto ocurre porque una pregunta después de otra puede ocasionar que el bot “olvide” que estaba tratando de responder en primer lugar.


El otor problema es más complejo e interesante: "El modelo a veces intenta responder o reflejar en el tono en el que se le piden respuestas que pueden llevar a un estilo que no pretendíamos", escribió Microsoft. Se necesitan muchas indicaciones para que eso ocurra, pero los ingenieros creen que podrían solucionarlo dando más control a los usuarios.


A pesar de estos problemas, los probadores han dado en general a la IA de Bing buenas notas en citas y referencias para la búsqueda, dijo Microsoft, aunque tiene que mejorar con "datos muy oportunos como los resultados deportivos en directo". También se pretende mejorar las respuestas objetivas a cuestiones como los informes financieros multiplicando por cuatro los datos de referencia. Por último, van a "añadir una opción que permite controlar mejor la precisión frente a la creatividad de la respuesta para adaptarla a la consulta".


El equipo de Bing agradeció a los usuarios las pruebas realizadas hasta la fecha, afirmando que "nos ayudan a mejorar el producto para todos". Al mismo tiempo, se mostraron sorprendidos de que la gente pasara hasta dos horas en sesiones de chat. No cabe duda de que los usuarios serán igual de diligentes a la hora de probar las nuevas actualizaciones, por lo que podríamos estar ante un viaje interesante en los próximos tiempos.





bottom of page