Μετάβαση στο κύριο περιεχόμενο

Τι είναι τα dark LLMs και γιατί δεν πρέπει να μας τρομάζουν, αλλά να μας κινητοποιούν

 


Με αφορμή δημοσιεύματα και έρευνες για την ύπαρξη "παραβιασμένων" ή "ανήθικων" εκδόσεων Τεχνητής Νοημοσύνης, γνωστών ως dark LLMs, προκύπτουν εύλογες απορίες και ανησυχίες. Τι είναι τελικά αυτά τα μοντέλα, πώς λειτουργούν και πόσο μας αφορούν ως πολίτες;

1. Τι είναι τα dark LLMs Τα dark LLMs (Large Language Models) είναι γλωσσικά μοντέλα Τεχνητής Νοημοσύνης τα οποία είτε:

  • έχουν κατασκευαστεί εξαρχής χωρίς φίλτρα ασφαλείας, είτε
  • έχουν παραβιαστεί (jailbroken) από χρήστες με σκοπό να παρακάμψουν τα ηθικά και νομικά όρια που υπάρχουν στις επίσημες πλατφόρμες (όπως ChatGPT, Gemini, Claude).

Τα μοντέλα αυτά κυκλοφορούν κατά κύριο λόγο σε σκιώδεις πλατφόρμες και forums, και πολλές φορές διαφημίζονται ως «χωρίς περιορισμούς» ή «έτοιμα να απαντήσουν σε όλα» – ακόμη και σε αιτήματα που σχετίζονται με παρανομία.

2. Τι είναι το jailbreaking και γιατί δεν αφορά τον μέσο χρήστη Το jailbreaking είναι μια διαδικασία όπου κάποιος, μέσω πολύπλοκων ή παραπλανητικών εντολών (prompts), προσπαθεί να ξεγελάσει το σύστημα ώστε να δώσει απαντήσεις που κανονικά θα απέρριπτε. Αν και τεχνικά εφικτό υπό συνθήκες, προϋποθέτει υψηλή τεχνογνωσία, επιμονή και παραβίαση των όρων χρήσης.

Η καθημερινή, νόμιμη χρήση των chatbot από πολίτες, εκπαιδευτικούς ή επαγγελματίες δεν εμπεριέχει κανενός είδους κίνδυνο τέτοιας παραβίασης. Οι εφαρμογές που χρησιμοποιούν οι περισσότεροι (όπως ο Χαρισμάκης στο blog μας) διαθέτουν αυστηρά φίλτρα ασφαλείας και μηχανισμούς προστασίας.

3. Γιατί δεν κινδυνεύει ο απλός πολίτης Η ύπαρξη των dark LLMs είναι πραγματική, αλλά αφορά περιθωριακές χρήσεις και εξειδικευμένους κύκλους. Ο πολίτης που χρησιμοποιεί αναγνωρισμένα εργαλεία AI για καθημερινές ανάγκες δεν εκτίθεται σε τέτοια περιβάλλοντα. Επιπλέον, τα ίδια τα συστήματα απορρίπτουν αυτομάτως αιτήματα που σχετίζονται με βία, ναρκωτικά, hacking ή παρανομία.

4. Τι χρειάζεται να κάνουμε

  • Να επιλέγουμε πιστοποιημένες πλατφόρμες τεχνητής νοημοσύνης.
  • Να είμαστε ενήμεροι για τους όρους χρήσης.
  • Να αποφεύγουμε προκλήσεις ή πειραματισμούς με ακραίες ερωτήσεις.
  • Να ενημερώνουμε υπεύθυνα τους νέους χρήστες, ιδίως μαθητές.

5. Η καλύτερη άμυνα είναι η γνώση Η τεχνολογία δεν είναι επικίνδυνη όταν τη γνωρίζουμε, τη σεβόμαστε και τη χρησιμοποιούμε υπεύθυνα. Ο πανικός δεν προστατεύει· η ενημέρωση, ναι.

Οι χρήστες δεν χρειάζεται να φοβούνται τα dark LLMs – αρκεί να ξέρουν πού βρίσκονται, σε τι στοχεύουν και πώς να μείνουν μακριά τους.

Βιβλιογραφία / Πηγές

  • Rokach, L., & Fire, M. (2025). The Threat of Dark LLMs and the Future of AI Misuse. Ben-Gurion University AI Lab.
  • iefimerida.gr. (21/05/2025). «Σκοτεινή AI»: Πώς χάκερς «σπάνε» την τεχνητή νοημοσύνη για να δίνει επικίνδυνες οδηγίες για όπλα και ναρκωτικά. Διαθέσιμο στο: https://www.iefimerida.gr/tehnologia/hakers-spane-tehniti-noimosyni-gia-opla-narkotika
  • OpenAI (2023). GPT Safety & Alignment Measures. Αναφορά προσβασιμότητας τεχνητής νοημοσύνης.
  • OECD (2021). Principles on Artificial Intelligence. [https://www.oecd.org/going-digital/ai/principles/]