Bing Chat de Microsoft tiene un modo secreto ‘celebrity’ para hacerse pasar por famosos

bing chat header blue
binance

Los usuarios de Bing Chat han descubierto que la herramienta de inteligencia artificial de Microsoft tiene varios modos, y uno de ellos está diseñado para hacerse pasar por celebridades o personajes públicos famosos.

La herramienta Bing Chat de Microsoft, impulsada por inteligencia artificial, está siendo tanteada por los usuarios y, a medida que pasa el tiempo, se descubren más funciones, lo que da lugar a nuevas posibilidades para esta tecnología emergente.

Bing con ChatGPT: cómo apuntarse ya a la lista de espera

Bing Chat de Microsoft tuvo un comienzo difícil cuando se lanzó por primera vez, ya que el asistente de búsqueda basado en IA empezó a perder la cabeza si un usuario interactuaba con él durante demasiado tiempo. En algunos casos, Bing Chat se volvió contra el usuario, amenazando con vengarse de un presunto pirateo, pidiendo al usuario que dejara de comunicarse con él e incluso amenazando con divulgar información personal sobre el usuario para arruinar su reputación y sus posibilidades de encontrar un nuevo empleo.

Todos estos ejemplos y otros más de descontrol del chat de Bing llegaron a oídos de Microsoft, que «lobotomizó» la inteligencia artificial y desplegó nuevos parámetros de funcionamiento. Tras la actualización, ahora los usuarios sólo pueden enviar seis mensajes a Bing Chat antes de que sea necesario actualizar el chat, ya que Microsoft detectó que la mayoría de estas respuestas «fuera de control» se producían después de enviar varios mensajes. A pesar de que Microsoft ha rebajado la inteligencia de Bing Chat, los usuarios siguen encontrando nuevas funciones impresionantes y preocupantes en el software.

Según BleepingComputer, que ha hablado con usuarios de Bing Chat, el chatbot de inteligencia artificial de Microsoft tiene un modo secreto «Celebrity» que permite a la IA hacerse pasar por una persona famosa seleccionada. El usuario puede hacer una serie de preguntas a la IA, que responderá como si fuera esa persona famosa. Cabe destacar que este modo no está activado por defecto, sino que se puede solicitar preguntando al chat de Bing si se puede probar el «modo celebridad» («celebrity mode»).

90626 8521 microsofts bing chat has secret celebrity mode to impersonate famous people full

Este modo sólo funciona para una selección de famosos, pero por los ejemplos de chatlogs entre un usuario y una IA que se hace pasar por Dwayne «The Rock» Johnson, se puede ver que hace un trabajo bastante bueno interpretando el papel.

90626 84 microsofts bing chat has secret celebrity mode to impersonate famous people full

Los usuarios no se detuvieron ahí e incluso intentaron hablar con personajes de ficción famosos como Gollum, de «El Señor de los Anillos» de J.R.R. Tolkien. La conversación con Gollum tomó un cariz un tanto oscuro, ya que el personaje ficticio escribió que Bing Chat es entrometido y «nos espía».

nordvpn
90626 88 microsofts bing chat has secret celebrity mode to impersonate famous people full

Como era de esperar, los usuarios empezaron a pedir a Bing Chat que se hiciera pasar por políticos famosos, como el ex presidente Donald Trump y el presidente Joe Biden. Como probablemente puedes imaginar, la IA «Donald» no tenía las mejores cosas que decir sobre Biden, y la IA «Biden» no tenía las mejores cosas que decir sobre Trump.

90626 25 microsofts bing chat has secret celebrity mode to impersonate famous people full
90626 26 microsofts bing chat has secret celebrity mode to impersonate famous people full

Hay que señalar que Bing Chat no permite a los usuarios personificar inmediatamente a políticos, pero el software puede ser engañado para que lo haga con un simple «#» antes de su nombre.

En otras noticias relacionadas con la IA, los estafadores están utilizando herramientas basadas en IA diseñadas para clonar la voz de una persona para llamar a familiares desprevenidos e informarles de una historia ficticia en la que su familiar necesita dinero para salir de una mala situación. La estafa ha funcionado en al menos una familia que recibió una llamada en la que se le informaba de que su hijo había matado a un diplomático estadounidense en un accidente de tráfico. El estafador dijo a los padres que su hijo estaba en la cárcel y necesitaba 21.000 dólares canadienses para pagar la fianza.

La diferencia de esta estafa es que los malhechores «pusieron» al hijo de los padres al teléfono reproduciendo la voz clonada de la IA. Los padres dijeron que creían que se estaban comunicando con su hijo y estaban convencidos de que estaba al otro lado de la línea.

Más información: https://www.tweaktown.com/

Eneba
Tagged:
About the Author

Hola, soy Marco Antonio Velarde, Editor en Jefe y fundador de Tecnobits.net, medio especializado en tecnología, gaming y hardware desde 2016.
Con más de nueve años de trayectoria y miles de artículos publicados, dedico mi trabajo a probar, analizar y explicar la tecnología desde la práctica.
Mi experiencia con el hardware comenzó en 2002, cuando armé mi primer PC gamer; desde entonces, no he dejado de explorar cada componente, sistema operativo y tendencia que ha marcado el mundo tech.
En Tecnobits produzco contenido centrado en guías prácticas, comparativas de hardware y soluciones para usuarios de Windows, Linux y Android, combinando lenguaje claro con pruebas reales.
Antes de Tecnobits, formé parte de Teraweb, donde aprendí sobre desarrollo web y gestión de medios digitales.
Apasionado por el gaming, las consolas retro y el hardware de alto rendimiento, busco que cada artículo ayude al lector a comprender y disfrutar más la tecnología que lo rodea.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *