Bing Chat de Microsoft tiene un modo secreto ‘celebrity’ para hacerse pasar por famosos

binance

Los usuarios de Bing Chat han descubierto que la herramienta de inteligencia artificial de Microsoft tiene varios modos, y uno de ellos está diseñado para hacerse pasar por celebridades o personajes públicos famosos.

La herramienta Bing Chat de Microsoft, impulsada por inteligencia artificial, está siendo tanteada por los usuarios y, a medida que pasa el tiempo, se descubren más funciones, lo que da lugar a nuevas posibilidades para esta tecnología emergente.

Bing con ChatGPT: cómo apuntarse ya a la lista de espera

Bing Chat de Microsoft tuvo un comienzo difícil cuando se lanzó por primera vez, ya que el asistente de búsqueda basado en IA empezó a perder la cabeza si un usuario interactuaba con él durante demasiado tiempo. En algunos casos, Bing Chat se volvió contra el usuario, amenazando con vengarse de un presunto pirateo, pidiendo al usuario que dejara de comunicarse con él e incluso amenazando con divulgar información personal sobre el usuario para arruinar su reputación y sus posibilidades de encontrar un nuevo empleo.

Rebajas
GIGABYTE G5 KF: 15.6" FHD 1920x1080 144Hz, NVIDIA GeForce RTX 4060 Laptop GPU, Intel Core i5-12500H, 8GB DDR4 RAM, 512G SSD, Win11 Home (G5 KF-E3US333SH) Black
NVIDIA GeForce RTX 40 Series: NVIDIA GeForce RTX 4060 Laptop GPU; Intel 12th Gen Ready: 12th Gen Intel Core i5-12500H Processor 4.5 GHz
$1,099.00 −$150.00 $949.00
ZOTAC Gaming GeForce RTX 4060 8GB OC Spider-Man: Across The Spider-Verse Inspired Graphics Card Bundle, ZT-D40600P-10SMP
Powered by NVIDIA DLSS 3, ultra-efficient Ada Lovelace arch, and full ray tracing; Boost Clock 2475 MHz, 8GB GDDR6, 128-bit, 17 Gbps, PCIE 4.0
$339.99

Todos estos ejemplos y otros más de descontrol del chat de Bing llegaron a oídos de Microsoft, que «lobotomizó» la inteligencia artificial y desplegó nuevos parámetros de funcionamiento. Tras la actualización, ahora los usuarios sólo pueden enviar seis mensajes a Bing Chat antes de que sea necesario actualizar el chat, ya que Microsoft detectó que la mayoría de estas respuestas «fuera de control» se producían después de enviar varios mensajes. A pesar de que Microsoft ha rebajado la inteligencia de Bing Chat, los usuarios siguen encontrando nuevas funciones impresionantes y preocupantes en el software.

Según BleepingComputer, que ha hablado con usuarios de Bing Chat, el chatbot de inteligencia artificial de Microsoft tiene un modo secreto «Celebrity» que permite a la IA hacerse pasar por una persona famosa seleccionada. El usuario puede hacer una serie de preguntas a la IA, que responderá como si fuera esa persona famosa. Cabe destacar que este modo no está activado por defecto, sino que se puede solicitar preguntando al chat de Bing si se puede probar el «modo celebridad» («celebrity mode»).

Este modo sólo funciona para una selección de famosos, pero por los ejemplos de chatlogs entre un usuario y una IA que se hace pasar por Dwayne «The Rock» Johnson, se puede ver que hace un trabajo bastante bueno interpretando el papel.

Los usuarios no se detuvieron ahí e incluso intentaron hablar con personajes de ficción famosos como Gollum, de «El Señor de los Anillos» de J.R.R. Tolkien. La conversación con Gollum tomó un cariz un tanto oscuro, ya que el personaje ficticio escribió que Bing Chat es entrometido y «nos espía».

Binance

Como era de esperar, los usuarios empezaron a pedir a Bing Chat que se hiciera pasar por políticos famosos, como el ex presidente Donald Trump y el presidente Joe Biden. Como probablemente puedes imaginar, la IA «Donald» no tenía las mejores cosas que decir sobre Biden, y la IA «Biden» no tenía las mejores cosas que decir sobre Trump.

Hay que señalar que Bing Chat no permite a los usuarios personificar inmediatamente a políticos, pero el software puede ser engañado para que lo haga con un simple «#» antes de su nombre.

En otras noticias relacionadas con la IA, los estafadores están utilizando herramientas basadas en IA diseñadas para clonar la voz de una persona para llamar a familiares desprevenidos e informarles de una historia ficticia en la que su familiar necesita dinero para salir de una mala situación. La estafa ha funcionado en al menos una familia que recibió una llamada en la que se le informaba de que su hijo había matado a un diplomático estadounidense en un accidente de tráfico. El estafador dijo a los padres que su hijo estaba en la cárcel y necesitaba 21.000 dólares canadienses para pagar la fianza.

La diferencia de esta estafa es que los malhechores «pusieron» al hijo de los padres al teléfono reproduciendo la voz clonada de la IA. Los padres dijeron que creían que se estaban comunicando con su hijo y estaban convencidos de que estaba al otro lado de la línea.

Más información: https://www.tweaktown.com/

BuyBitcoinswithCreditCard
Tagged:
About the Author

T1: escritor y editor de contenidos en Tecnobits. Me encanta todo lo relacionado con la tecnología, especialmente el gaming. Desde que tuve mi primera consola, la NES, no he dejado de jugar y disfrutar de los mejores juegos. Mi favorito es Half Life, un clásico que nunca pasa de moda. También soy partidario de Bitcoin, la moneda del futuro que nos ofrece libertad y seguridad. En Tecnobits, comparto mi pasión y conocimiento sobre estos temas y muchos más, siempre con un tono bastante amigable, informal y divertido. Espero que te gusten mis artículos y que me dejes tus comentarios. ¡Gracias por leerme!

Deja una respuesta

Tu dirección de correo electrónico no será publicada.