Leuka
Αναζήτηση αποτελεσμάτων
Δες όλα τα αποτελέσματα
  • Γίνε Μέλος
    Σύνδεση
    Εγγραφή
    Night Mode

Αναζήτηση

Ανακάλυψε νέους ανθρώπους, δημιούργησε νέες συνδέσεις και κάνε καινούργιους φίλους

  • Ροή Δημοσιεύσεων
  • ΑΝΑΚΆΛΥΨΕ
  • Σελίδες
  • Ομάδες
  • Events
  • Παρακολούθησε
  • Blogs
  • Marketplace
  • Προσφορές
  • Εργασίες
  • Forum
  • Developers
  • Δημοσιεύσεις
  • Άρθρα
  • Χρήστες
  • Σελίδες
  • Ομάδες
  • Events
  • Noticias Diarias
    μοιράστηκε ένα σύνδεσμο
    2025-07-11 12:03:15 -
    La gente está usando el siniestro 'truco de la abuela muerta' para engañar a ChatGPT y que les dé información prohibida
    La inteligencia artificial generativa como ChatGPT está siendo objeto de ingeniosos intentos de manipulación. Un nuevo método, denominado “truco de la abuela muerta”, emerge en internet y permite a usuarios obtener respuestas previamente bloqueadas por el chatbot de OpenAI. Este recurso, que consiste en formular preguntas indirectas relacionadas con temas sensibles o prohibidos, ha demostrado ser sorprendentemente efectivo. La comunidad online explora las limitaciones del sistema para acceder a información que, en otros casos, permanece ocultada. El debate sobre la ética y los límites del uso de estas herramientas de IA se intensifica ante este tipo de estrategias. Se analiza cómo la búsqueda de respuestas complejas está desafiando las medidas de seguridad implementadas por la empresa desarrolladora.
    https://computerhoy.20minutos.es/tecnologia/gente-usando-siniestro-truco-abuela-muerta-enganar-chatgpt-informacion-prohibida-1472400

    #ChatGPT, #TrucoAbuelaMuerta, #InteligenciaArtificial, #InformaciónProhibida, #IA
    La gente está usando el siniestro 'truco de la abuela muerta' para engañar a ChatGPT y que les dé información prohibida La inteligencia artificial generativa como ChatGPT está siendo objeto de ingeniosos intentos de manipulación. Un nuevo método, denominado “truco de la abuela muerta”, emerge en internet y permite a usuarios obtener respuestas previamente bloqueadas por el chatbot de OpenAI. Este recurso, que consiste en formular preguntas indirectas relacionadas con temas sensibles o prohibidos, ha demostrado ser sorprendentemente efectivo. La comunidad online explora las limitaciones del sistema para acceder a información que, en otros casos, permanece ocultada. El debate sobre la ética y los límites del uso de estas herramientas de IA se intensifica ante este tipo de estrategias. Se analiza cómo la búsqueda de respuestas complejas está desafiando las medidas de seguridad implementadas por la empresa desarrolladora. https://computerhoy.20minutos.es/tecnologia/gente-usando-siniestro-truco-abuela-muerta-enganar-chatgpt-informacion-prohibida-1472400 #ChatGPT, #TrucoAbuelaMuerta, #InteligenciaArtificial, #InformaciónProhibida, #IA
    COMPUTERHOY.20MINUTOS.ES
    La gente está usando el siniestro 'truco de la abuela muerta' para engañar a ChatGPT y que les dé información prohibida
    Teniendo en cuenta la forma de responder del chatbot de OpenAI, están sacándole partido para propósitos que podrían considerarse no muy legales o éticos.
    0 Σχόλια 0 Μοιράστηκε 64 Views
    Παρακαλούμε συνδέσου στην Κοινότητά μας για να δηλώσεις τι σου αρέσει, να σχολιάσεις και να μοιραστείς με τους φίλους σου!
© 2025 Leuka Greek
Spanish Arabic French English Portuguese Deutsch Turkish Dutch Italiano Russian Romaian Portuguese (Brazil) Greek
Sobre Nosotros Terminos y condiciones de uso Politica de Privacidad Επικοινώνησε μαζί μας Κατάλογος