Los usuarios de Bing Chat han descubierto que la herramienta de inteligencia artificial de Microsoft tiene varios modos, y uno de ellos está diseñado para hacerse pasar por celebridades o personajes públicos famosos.
La herramienta Bing Chat de Microsoft, impulsada por inteligencia artificial, está siendo tanteada por los usuarios y, a medida que pasa el tiempo, se descubren más funciones, lo que da lugar a nuevas posibilidades para esta tecnología emergente.
Bing Chat de Microsoft tuvo un comienzo difícil cuando se lanzó por primera vez, ya que el asistente de búsqueda basado en IA empezó a perder la cabeza si un usuario interactuaba con él durante demasiado tiempo. En algunos casos, Bing Chat se volvió contra el usuario, amenazando con vengarse de un presunto pirateo, pidiendo al usuario que dejara de comunicarse con él e incluso amenazando con divulgar información personal sobre el usuario para arruinar su reputación y sus posibilidades de encontrar un nuevo empleo.
Todos estos ejemplos y otros más de descontrol del chat de Bing llegaron a oídos de Microsoft, que «lobotomizó» la inteligencia artificial y desplegó nuevos parámetros de funcionamiento. Tras la actualización, ahora los usuarios sólo pueden enviar seis mensajes a Bing Chat antes de que sea necesario actualizar el chat, ya que Microsoft detectó que la mayoría de estas respuestas «fuera de control» se producían después de enviar varios mensajes. A pesar de que Microsoft ha rebajado la inteligencia de Bing Chat, los usuarios siguen encontrando nuevas funciones impresionantes y preocupantes en el software.
Según BleepingComputer, que ha hablado con usuarios de Bing Chat, el chatbot de inteligencia artificial de Microsoft tiene un modo secreto «Celebrity» que permite a la IA hacerse pasar por una persona famosa seleccionada. El usuario puede hacer una serie de preguntas a la IA, que responderá como si fuera esa persona famosa. Cabe destacar que este modo no está activado por defecto, sino que se puede solicitar preguntando al chat de Bing si se puede probar el «modo celebridad» («celebrity mode»).
Este modo sólo funciona para una selección de famosos, pero por los ejemplos de chatlogs entre un usuario y una IA que se hace pasar por Dwayne «The Rock» Johnson, se puede ver que hace un trabajo bastante bueno interpretando el papel.
Los usuarios no se detuvieron ahí e incluso intentaron hablar con personajes de ficción famosos como Gollum, de «El Señor de los Anillos» de J.R.R. Tolkien. La conversación con Gollum tomó un cariz un tanto oscuro, ya que el personaje ficticio escribió que Bing Chat es entrometido y «nos espía».
Como era de esperar, los usuarios empezaron a pedir a Bing Chat que se hiciera pasar por políticos famosos, como el ex presidente Donald Trump y el presidente Joe Biden. Como probablemente puedes imaginar, la IA «Donald» no tenía las mejores cosas que decir sobre Biden, y la IA «Biden» no tenía las mejores cosas que decir sobre Trump.
Hay que señalar que Bing Chat no permite a los usuarios personificar inmediatamente a políticos, pero el software puede ser engañado para que lo haga con un simple «#» antes de su nombre.
En otras noticias relacionadas con la IA, los estafadores están utilizando herramientas basadas en IA diseñadas para clonar la voz de una persona para llamar a familiares desprevenidos e informarles de una historia ficticia en la que su familiar necesita dinero para salir de una mala situación. La estafa ha funcionado en al menos una familia que recibió una llamada en la que se le informaba de que su hijo había matado a un diplomático estadounidense en un accidente de tráfico. El estafador dijo a los padres que su hijo estaba en la cárcel y necesitaba 21.000 dólares canadienses para pagar la fianza.
La diferencia de esta estafa es que los malhechores «pusieron» al hijo de los padres al teléfono reproduciendo la voz clonada de la IA. Los padres dijeron que creían que se estaban comunicando con su hijo y estaban convencidos de que estaba al otro lado de la línea.
Más información: https://www.tweaktown.com/