Bing Chat de Microsoft tiene un modo secreto ‘celebrity’ para hacerse pasar por famosos

bingx

Los usuarios de Bing Chat han descubierto que la herramienta de inteligencia artificial de Microsoft tiene varios modos, y uno de ellos está diseñado para hacerse pasar por celebridades o personajes públicos famosos.

La herramienta Bing Chat de Microsoft, impulsada por inteligencia artificial, está siendo tanteada por los usuarios y, a medida que pasa el tiempo, se descubren más funciones, lo que da lugar a nuevas posibilidades para esta tecnología emergente.

Bing con ChatGPT: cómo apuntarse ya a la lista de espera

Bing Chat de Microsoft tuvo un comienzo difícil cuando se lanzó por primera vez, ya que el asistente de búsqueda basado en IA empezó a perder la cabeza si un usuario interactuaba con él durante demasiado tiempo. En algunos casos, Bing Chat se volvió contra el usuario, amenazando con vengarse de un presunto pirateo, pidiendo al usuario que dejara de comunicarse con él e incluso amenazando con divulgar información personal sobre el usuario para arruinar su reputación y sus posibilidades de encontrar un nuevo empleo.

Todos estos ejemplos y otros más de descontrol del chat de Bing llegaron a oídos de Microsoft, que «lobotomizó» la inteligencia artificial y desplegó nuevos parámetros de funcionamiento. Tras la actualización, ahora los usuarios sólo pueden enviar seis mensajes a Bing Chat antes de que sea necesario actualizar el chat, ya que Microsoft detectó que la mayoría de estas respuestas «fuera de control» se producían después de enviar varios mensajes. A pesar de que Microsoft ha rebajado la inteligencia de Bing Chat, los usuarios siguen encontrando nuevas funciones impresionantes y preocupantes en el software.

Según BleepingComputer, que ha hablado con usuarios de Bing Chat, el chatbot de inteligencia artificial de Microsoft tiene un modo secreto «Celebrity» que permite a la IA hacerse pasar por una persona famosa seleccionada. El usuario puede hacer una serie de preguntas a la IA, que responderá como si fuera esa persona famosa. Cabe destacar que este modo no está activado por defecto, sino que se puede solicitar preguntando al chat de Bing si se puede probar el «modo celebridad» («celebrity mode»).

Este modo sólo funciona para una selección de famosos, pero por los ejemplos de chatlogs entre un usuario y una IA que se hace pasar por Dwayne «The Rock» Johnson, se puede ver que hace un trabajo bastante bueno interpretando el papel.

Los usuarios no se detuvieron ahí e incluso intentaron hablar con personajes de ficción famosos como Gollum, de «El Señor de los Anillos» de J.R.R. Tolkien. La conversación con Gollum tomó un cariz un tanto oscuro, ya que el personaje ficticio escribió que Bing Chat es entrometido y «nos espía».

bingx

Como era de esperar, los usuarios empezaron a pedir a Bing Chat que se hiciera pasar por políticos famosos, como el ex presidente Donald Trump y el presidente Joe Biden. Como probablemente puedes imaginar, la IA «Donald» no tenía las mejores cosas que decir sobre Biden, y la IA «Biden» no tenía las mejores cosas que decir sobre Trump.

Hay que señalar que Bing Chat no permite a los usuarios personificar inmediatamente a políticos, pero el software puede ser engañado para que lo haga con un simple «#» antes de su nombre.

En otras noticias relacionadas con la IA, los estafadores están utilizando herramientas basadas en IA diseñadas para clonar la voz de una persona para llamar a familiares desprevenidos e informarles de una historia ficticia en la que su familiar necesita dinero para salir de una mala situación. La estafa ha funcionado en al menos una familia que recibió una llamada en la que se le informaba de que su hijo había matado a un diplomático estadounidense en un accidente de tráfico. El estafador dijo a los padres que su hijo estaba en la cárcel y necesitaba 21.000 dólares canadienses para pagar la fianza.

La diferencia de esta estafa es que los malhechores «pusieron» al hijo de los padres al teléfono reproduciendo la voz clonada de la IA. Los padres dijeron que creían que se estaban comunicando con su hijo y estaban convencidos de que estaba al otro lado de la línea.

Más información: https://www.tweaktown.com/

Eneba
Tagged:
About the Author

Marco (T1). Con más de 8 años de experiencia en la creación de contenido, soy cofundador, autor y editor de Tecnobits.net, un sitio dedicado a todo lo relacionado con la tecnología y el gaming. A lo largo de los años, me he especializado en cubrir temas como PC, hardware, consolas retro, dispositivos móviles (especialmente Android), criptomonedas como Bitcoin, blockchain, inteligencia artificial (IA), y más. Mi pasión por el mundo tecnológico me ha llevado a ofrecer análisis detallados y noticias actualizadas, siempre con un enfoque técnico y accesible para todos los lectores.

Mi enfoque principal es proporcionar contenido de alta calidad y relevante para aquellos interesados en el mundo del gaming, el hardware, los celulares, y las últimas tendencias tecnológicas. En Tecnobits, nos esforzamos por mantener a nuestra audiencia informada sobre los avances más recientes en la industria de la tecnología.

En mis ratos libres, probablemente estoy jugando a Like a Dragon: Infinite Wealth.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *