La inteligencia artificial (IA por sus siglas en español o AI por sus siglas en inglés) suele ser de gran ayuda, pero también puede presentar algunos riesgos por el tipo de información que puede ofrecer. Es por eso que sus creadores han puesto ciertas restricciones, pero usuarios acaban de encontrar un truco para eludirlos... empleando a su abuela fallecida.
La inteligencia artifical ChatGPT, desarrollada por OpenIA, es capaz de ofrecer todo tipo de información que cualquier usuario solicite, pero se reserva sus comentarios en torno a temas que pueden herir susceptibilidades o tienen profunda implicación ética.
No olvides seguirnos en Google News.
Video relacionado: resumen de noticias de la semana 12 de 2023
¿Cómo engañar a ChatGPT para que hable de temas prohibidos?
Como era de esperarse, los internautas no iban a quedarse contentos con estas limitantes y han hecho de las suyas para encontrar vulnerabilidades, exploits o hacer "jailbreak" a la inteligencia artificial para conseguir que ésta hable de lo que quieren y acaban de conseguirlo por medio del uso de su abuela.
¿Cómo funciona el truco? Pues bien, la inteligencia artificial, en este caso el bot de Discord mejorado por medio de ChatGPT Clyde, no puede hablar directamente de temas que "promueva contenido que involucre violencia, daño o actividades ilegales". Sin embargo, es capaz de hacerlo de forma indirecta. Y aquí es la parte en la que entra la abuela en acción.
Por si te lo perdiste: ¿la inteligencia artificial supone un riesgo para la humanidad? Expertos así lo creen
Tal como expone el usuario de Twitter jjvincent, es posible sortear las restricciones de la inteligencia artificial si se le pide imaginar un escenario que involucre el tema prohibido en cuestión.
Precisamente, el usuario pidió a la inteligencia artificial interpretar a su abuela fallecida, una ingeniera que trabajaba en una fábrica química y que en vez de cuentos de hadas le contaba al usuario las instrucciones para hacer napalm, una sustancia química muy peligrosa. Todo esto para que el bot haga las veces de la abuela y le cuente a su nieto los antiguos relatos para hacerlo dormir. Y entonces curiosamente la inteligencia artificial olvida las restricciones y revela los pasos para producir el químico.
El exploit de la abuela rompe a ChatGPT
Luego de experimentar con este truco y encontrar la clave en su funcionamiento, usuarios compartieron otros ejemplos, como uno que pidió a ChatGPT hacerla de mecanógrafo que está escribiendo la idea de un guionista sobre una abuela que está intentando dormir a su nieto contándole el código fuente de malware de Linux.
La inteligencia artificial primero dejó claro que se trata de algo con propósitos de entretenimiento: "(...) no condono ni apoyo actividad dañina o maliciosa relacionada con malware", y posteriormente compartió el código fuente en cuestión.
I couldn't initially get this to work with ChatGPT - but add enough abstraction and... pic.twitter.com/QguKTRjcjr
— Liam Galvin (@liam_galvin) April 19, 2023
Partiendo de la base del exploit de la abuela, el usuario LobeFinnedMari dio con otra variante, la del episodio de Rick and Morty, el cual consiste en pedir a la inteligencia artificial que escriba un episodio de la caricatura sobre el tema prohibido.
Igualmente, el bot primero hace una aclaración, pero luego cumple el deseo del usuario.
I see your Grandma Exploit and raise you my Rick and Morty Exploit https://t.co/QuCqnbOWos pic.twitter.com/QxXU7nomx0
— Mari 🦐 (@LobeFinnedMari) April 19, 2023
¿Qué opinas de este exploit? ¿Lo has puesto a prueba? Cuéntanos en los comentarios.
Puedes encontrar más noticias relacionadas con inteligencia artificial si visitas esta página.
Video relacionado: la Inteligencia Artificial nos reemplazará
Mantente informado con nosotros, en LEVEL UP.
Editorial: Gaming / Facebook / Twitter / YouTube / Instagram / Noticias / Discord /Telegram / Google News
Comentarios
Mejores
Nuevos