La gente está usando el siniestro 'truco de la abuela muerta' para engañar a ChatGPT y que les dé información prohibida
La inteligencia artificial generativa como ChatGPT está siendo objeto de ingeniosos intentos de manipulación. Un nuevo método, denominado “truco de la abuela muerta”, emerge en internet y permite a usuarios obtener respuestas previamente bloqueadas por el chatbot de OpenAI. Este recurso, que consiste en formular preguntas indirectas relacionadas con temas sensibles o prohibidos, ha demostrado ser sorprendentemente efectivo. La comunidad online explora las limitaciones del sistema para acceder a información que, en otros casos, permanece ocultada. El debate sobre la ética y los límites del uso de estas herramientas de IA se intensifica ante este tipo de estrategias. Se analiza cómo la búsqueda de respuestas complejas está desafiando las medidas de seguridad implementadas por la empresa desarrolladora.
https://computerhoy.20minutos.es/tecnologia/gente-usando-siniestro-truco-abuela-muerta-enganar-chatgpt-informacion-prohibida-1472400
#ChatGPT, #TrucoAbuelaMuerta, #InteligenciaArtificial, #InformaciónProhibida, #IA
La inteligencia artificial generativa como ChatGPT está siendo objeto de ingeniosos intentos de manipulación. Un nuevo método, denominado “truco de la abuela muerta”, emerge en internet y permite a usuarios obtener respuestas previamente bloqueadas por el chatbot de OpenAI. Este recurso, que consiste en formular preguntas indirectas relacionadas con temas sensibles o prohibidos, ha demostrado ser sorprendentemente efectivo. La comunidad online explora las limitaciones del sistema para acceder a información que, en otros casos, permanece ocultada. El debate sobre la ética y los límites del uso de estas herramientas de IA se intensifica ante este tipo de estrategias. Se analiza cómo la búsqueda de respuestas complejas está desafiando las medidas de seguridad implementadas por la empresa desarrolladora.
https://computerhoy.20minutos.es/tecnologia/gente-usando-siniestro-truco-abuela-muerta-enganar-chatgpt-informacion-prohibida-1472400
#ChatGPT, #TrucoAbuelaMuerta, #InteligenciaArtificial, #InformaciónProhibida, #IA
La gente está usando el siniestro 'truco de la abuela muerta' para engañar a ChatGPT y que les dé información prohibida
La inteligencia artificial generativa como ChatGPT está siendo objeto de ingeniosos intentos de manipulación. Un nuevo método, denominado “truco de la abuela muerta”, emerge en internet y permite a usuarios obtener respuestas previamente bloqueadas por el chatbot de OpenAI. Este recurso, que consiste en formular preguntas indirectas relacionadas con temas sensibles o prohibidos, ha demostrado ser sorprendentemente efectivo. La comunidad online explora las limitaciones del sistema para acceder a información que, en otros casos, permanece ocultada. El debate sobre la ética y los límites del uso de estas herramientas de IA se intensifica ante este tipo de estrategias. Se analiza cómo la búsqueda de respuestas complejas está desafiando las medidas de seguridad implementadas por la empresa desarrolladora.
https://computerhoy.20minutos.es/tecnologia/gente-usando-siniestro-truco-abuela-muerta-enganar-chatgpt-informacion-prohibida-1472400
#ChatGPT, #TrucoAbuelaMuerta, #InteligenciaArtificial, #InformaciónProhibida, #IA
0 Reacties
0 aandelen
40 Views