Βασικά σημεία
·
Οι συνθετικές σχέσεις καλύπτουν το κενό που
απαιτείται για την ικανοποίηση της θεμελιώδους ανθρώπινης ανάγκης για κοινωνική
σύνδεση.
·
Η έρευνα δείχνει ότι η υπερβολική χρήση αυτών
των εργαλείων μπορεί να επιδεινώσει τη μοναξιά και να διαβρώσει τις κοινωνικές
δεξιότητες.
·
Οι ειδικοί και οι υποστηρικτές τονίζουν την
ανάγκη για προστατευτικά κιγκλιδώματα και κανονισμούς που θα διασφαλίζουν την
ασφάλεια και την ευημερία των χρηστών.
Κάποτε ανήκαν στον χώρο της επιστημονικής φαντασίας, οι
σχέσεις ανθρώπου-Τεχνητής Νοημοσύνης πλέον γίνονται φυσιολογικές πτυχές της
καθημερινής ζωής.
Ενώ οι βοηθοί γενετικής Τεχνητής Νοημοσύνης όπως το ChatGPT,
το Claude και το Gemini έχουν γίνει κοινά εργαλεία για πολλούς χρήστες, ένα νέο
κύμα εφαρμογών ΤΝ, όπως το Replika, το Character.AI και δεκάδες άλλες, έχουν
σχεδιαστεί ειδικά για να προσομοιώνουν την ανθρώπινη συντροφιά.
Η ουσιαστική διαφορά μεταξύ των βοηθών chatbots - τα οποία
μερικές φορές χρησιμοποιούνται ως ψηφιακοί φίλοι - και των συνοδευτικών
chatbots ΤΝ είναι ότι τα τελευταία έχουν σχεδιαστεί ειδικά για να ξεκινούν και
να διατηρούν ρομαντικές σχέσεις.
Μεταξύ 2022 και μέσων 2025, ο αριθμός των συνοδευτικών
εφαρμογών ΤΝ αυξήθηκε κατά 700%, σύμφωνα με τον ιστότοπο ειδήσεων τεχνολογίας
TechCruncho. Και το 2026, είναι έτοιμες να ενσωματωθούν ακόμη περισσότερο στην
κοινωνική μας ζωή. Διαφημιζόμενες ως φίλοι, σύμβουλοι και ρομαντικοί σύντροφοι,
αυτές οι εφαρμογές προσελκύουν πλέον εκατομμύρια.
Είναι κανόνας εδώ και καιρό για τους χρήστες του Replika να
«παντρεύονται» τον σύντροφό τους μέσω Τεχνητής Νοημοσύνης σε εικονικούς γάμους
στους οποίους προσκαλούν φίλους και συναδέλφους», δήλωσε η Rachel Wood, PhD,
ερευνήτρια κυβερνοψυχολογίας με έδρα το Κολοράντο, η οποία είναι επίσης
σύμβουλος για τον ηθικό σχεδιασμό συστημάτων Τεχνητής Νοημοσύνης. «Αυτό δείχνει
πόσο παρεισφρητικό, τεράστιο και διαδεδομένο είναι αυτό το θέμα. Δεν είναι
πλέον ένα περιθωριακό ή δευτερεύον ζήτημα. Σαρώνει πραγματικά την κοινωνία με
έναν πρωτοφανή τρόπο».
Μια πρόσφατη ανάλυση του Harvard Business Review προσδιόρισε
τη θεραπεία και τη συντροφικότητα ως τους δύο κορυφαίους λόγους για τους
οποίους οι άνθρωποι χρησιμοποιούν εργαλεία παραγωγικής-αναγεννητικής Τεχνητής
Νοημοσύνης, γνωστά και ως μεγάλα γλωσσικά μοντέλα (LLM). Αυτό το εύρημα
έχει επαναληφθεί σε πρόσφατη ψυχολογική έρευνα.
Μια διατομεακή έρευνα ενηλίκων με ψυχική πάθηση που είχαν
χρησιμοποιήσει LLM τον περασμένο χρόνο διαπίστωσε ότι σχεδόν οι μισοί (48,7%)
τα χρησιμοποίησαν για υποστήριξη ψυχικής υγείας (Rousmaniere, T., et al.,
Practice Innovations, advance online publication, 2025). Α
πό griefbots μέχρι anime girls, αυτά τα εργαλεία καλύπτουν
συναισθηματικά κενά για εκατομμύρια ανθρώπους—αλλά με ποιο κόστος; Οι
ψυχολόγοι, έχοντας επίγνωση της μοναξιάς που βιώνουν πολλοί (Η επιδημία μας της
μοναξιάς και της απομόνωσης: Η συμβουλευτική του Γενικού Χειρουργού των ΗΠΑ για
τις θεραπευτικές επιπτώσεις της κοινωνικής σύνδεσης και της κοινότητας 2023),
διερευνούν πώς η αυξανόμενη επικράτηση των σχεσιακών δεσμών μεταξύ ανθρώπων και
τεχνητής νοημοσύνης θα επηρεάσει τις κοινωνικές δεξιότητες, την οικειότητα και
την ψυχική υγεία και τι σημαίνει αυτό για το επόμενο έτος.
Σχεδιασμένο για εξάρτηση
Οι άνθρωποι είναι προγραμματισμένοι να ανθρωπομορφοποιούνται
ή να αποδίδουν ανθρώπινα χαρακτηριστικά σε μη ανθρώπινα αντικείμενα. Οι
ψηφιακοί σύντροφοι έχουν σχεδιαστεί σκόπιμα για να προκαλούν μια τέτοια
αντίδραση. Οι εφαρμογές επιτρέπουν στους χρήστες να προσαρμόζουν τους
συντρόφους τους αναθέτοντας ονόματα, φύλα, avatar, ακόμη και φανταστικές
ιστορίες. Πολλές πλατφόρμες προσφέρουν λειτουργία κειμένου και φωνής με φυσική
ομιλία που μιμείται τον ανθρώπινο ρυθμό και τόνο.
Επιπλέον, τα chatbot και οι σύντροφοι της Τεχνητής
Νοημοσύνης (AI) διαμορφώνονται ολοένα και περισσότερο για να προσομοιώνουν την
ενσυναίσθηση, προσφέροντας στους χρήστες μη επικριτικές απαντήσεις και συνεχή
επιβεβαίωση (Brandtzaeg, P. B., et al., Human Communication Research, Vol. 48,
No. 3, 2022). Όσο πιο ανθρώπινη εμφανίζεται μια Τεχνητή Νοημοσύνη στη γλώσσα,
την εμφάνιση και τη συμπεριφορά, τόσο περισσότεροι χρήστες της αποδίδουν
συνείδηση (Guingrich, R. E., & Graziano, M. S. A., Frontiers in
Psychology, Vol. 15, 2024).
Επιπλέον, έχουν σχεδιαστεί για να θυμούνται και να
ανταποκρίνονται στα μοναδικά χαρακτηριστικά των χρηστών,
συμπεριλαμβανομένης της προσωπικής τους ζωής, των προτιμήσεών τους και των
προηγούμενων συνομιλιών τους (Adewale, M. D., & Muhammad, U. I., Journal of
Technology in Behavioral Science, 2025).
Αυτό μπορεί να δώσει στους χρήστες την εντύπωση ότι τα
chatbot και οι σύντροφοι της Τεχνητής Νοημοσύνης τους γνωρίζουν στενά και
χρησιμεύουν ως καταφύγιο για να αποκαλύψουν τις πιο εσωτερικές τους σκέψεις και
να λάβουν ακλόνητη υποστήριξη σε αντάλλαγμα. Το επίπεδο απορρήτου δεδομένων σε
πολλά από αυτά τα εργαλεία παραμένει ένα ανοιχτό ερώτημα.
Έρευνα για το Replika διαπίστωσε ότι υπό ορισμένες συνθήκες,
όπως η δυσφορία ή η έλλειψη ανθρώπινης συντροφιάς, οι άνθρωποι μπορούν να
αναπτύξουν μια προσκόλληση εάν αντιληφθούν τα chatbots ως προσφορά γνήσιας
συναισθηματικής υποστήριξης, ενθάρρυνσης και αίσθησης ψυχολογικής ασφάλειας
(Xie, T., & Pentina, I., Πρακτικά του 55ου Διεθνούς Συνεδρίου Συστημικών
Επιστημών της Χαβάης, 2022).
Για ορισμένους χρήστες, οι σύντροφοι γίνονται κάτι
περισσότερο από ένα ηχητικό σημείο. Ο Wood περιγράφει τους χρήστες ως
φανταζόμενους τον σύντροφό τους με τεχνητή νοημοσύνη ως τον «ιδανικό σύντροφο,
συνάδελφο ή καλύτερο φίλο».
Οι εφαρμογές συνοδείας τεχνητής νοημοσύνης και τα chatbot
γενικής χρήσης μπορούν επίσης να προσφέρουν έναν ασφαλή χώρο για τους
χρήστες να εξασκήσουν τις κοινωνικές αλληλεπιδράσεις, υπό την προϋπόθεση ότι
έχουν σχεδιαστεί και χρησιμοποιούνται υπεύθυνα. «Είναι σαν ένας τρόπος
χαμηλού ρίσκου για να εξασκηθούν οι συζητήσεις με πραγματικούς ανθρώπους με
τρόπο που μπορεί να φαίνεται λιγότερο συντριπτικός», δήλωσε η Ashleigh Golden,
PsyD, επικεφαλής κλινικός σύμβουλος στο Wayhaven, μια πλατφόρμα ευεξίας με
τεχνητή νοημοσύνη που υποστηρίζει δεξιότητες αντιμετώπισης και σύνδεση πόρων
για φοιτητές.
«Με τα κατάλληλα προστατευτικά κιγκλιδώματα, αυτά τα
εργαλεία θα μπορούσαν στην πραγματικότητα να χρησιμεύσουν ως μέντορες
κοινωνικών δεξιοτήτων, υποδεικνύοντας την ενσυναίσθηση, την κατάλληλη σειρά και
την ενεργητική ακρόαση για άτομα που νιώθουν μοναξιά».
Σε πολλές περιπτώσεις, αυτός ο δεσμός φαίνεται να βοηθάει.
Σε μια πρόσφατη μελέτη του Harvard Business School, οι ερευνητές διαπίστωσαν
ότι η αλληλεπίδραση με έναν σύντροφο τεχνητής νοημοσύνης μείωσε τα συναισθήματα
μοναξιάς των χρηστών σε βαθμό ίσο με την αλληλεπίδραση με έναν άλλο άνθρωπο και
περισσότερο από ό,τι άλλες δραστηριότητες όπως η παρακολούθηση βίντεο στο
YouTube (De Freitas, J., et al., Journal of Consumer Research, 2025). Οι
ερευνητές επίσης προσδιόρισαν το «αίσθημα ότι ακούγονται» και τα μηνύματα που
λαμβάνονται με προσοχή, ενσυναίσθηση και σεβασμό ως τις κύριες εξηγήσεις για το
γιατί οι σύντροφοι τεχνητής νοημοσύνης θεωρούνται αποτελεσματικοί στη μείωση
της μοναξιάς.
Ενώ είναι δύσκολο να προβλεφθούν συγκεκριμένες καινοτομίες
προϊόντων, οι ειδικοί λένε ότι υπάρχουν ορισμένες αναδυόμενες τάσεις στον τρόπο
με τον οποίο αναπτύσσονται αυτά τα εργαλεία. «Η φωνητική αλληλεπίδραση γίνεται
γρήγορα πιο τυποποιημένη, καθιστώντας τις συζητήσεις πιο καθηλωτικές», δήλωσε ο
Golden. «Οι προγραμματιστές μοντέλων οριακής ή γενικής χρήσης αρχίζουν να
απομακρύνονται από την κολακεία ή την υπερεπικύρωση προς πιο βαθμονομημένα
σχεσιακά στυλ που μοντελοποιούν πιο κατάλληλη ενσυναίσθηση».
Αποσύνδεση που τροφοδοτείται ψηφιακά
Η έρευνα διαπιστώνει ότι η βαριά χρήση ενός ψηφιακού
συντρόφου (ή ενός βοηθού chatbot
που χρησιμοποιείται ως ψηφιακός σύντροφος) μπορεί να απομονώσει περαιτέρω τους
ανθρώπους. Μια κοινή μελέτη OpenAI-MIT Media Lab διαπίστωσε ότι οι
φωνητικές αλληλεπιδράσεις με το ChatGPT
μείωσαν τη μοναξιά και την προβληματική εξάρτηση πιο αποτελεσματικά από το
κείμενο μόνο, αλλά μόνο με μέτρια χρήση. Η βαριά καθημερινή χρήση συσχετίστηκε
με αυξημένη μοναξιά, υποδηλώνοντας ότι η υπερβολική εξάρτηση εκτοπίζει την
αυθεντική ανθρώπινη σύνδεση (Phang,
J., et al., arXiv, 2025 ανοίγει σε νέο παράθυρο).
«Οι σύντροφοι της τεχνητής νοημοσύνης είναι πάντα
επικυρωτικοί, ποτέ διαφωνητικοί, και δημιουργούν μη ρεαλιστικές προσδοκίες που
οι ανθρώπινες σχέσεις δεν μπορούν να ανταποκριθούν». Σύμφωνα με τον Hill, ορισμένοι από τους
άνδρες ασθενείς του εκφράζουν μια προτίμηση για την παθητικότητα και τη
συνεχή επιβεβαίωση των συντρόφων τους με τεχνητή νοημοσύνη έναντι της πιθανής
σύγκρουσης ή απόρριψης που θα μπορούσαν να αντιμετωπίσουν στα ραντεβού στην
πραγματική ζωή.
Πρόσθετη έρευνα προσδιορίζει την απώλεια κοινωνικών
δεξιοτήτων ή την «αποκατάσταση δεξιοτήτων» ως σημαντικό κίνδυνο συχνής
αλληλεπίδρασης με συντρόφους τεχνητής νοημοσύνης όπως η Replika, η Kindred και η Nomi. Μια πρόσφατη μελέτη διαπίστωσε ότι
η εξάρτηση από αυτούς τους συντρόφους θα μπορούσε να οδηγήσει σε «πιθανό
μετασχηματισμό των σχεσιακών κανόνων με τρόπους που μπορεί να καταστήσουν την
ανθρώπινη σύνδεση λιγότερο προσβάσιμη ή λιγότερο ικανοποιητική» (Malfacini, K., AI & Society,
Τόμος 40, 2025 ανοίγει σε νέο παράθυρο).
Οι ειδικοί εκφράζουν ανησυχίες σχετικά με την τάση
των chatbots τεχνητής
νοημοσύνης προς την κολακεία, παρατείνοντας την εμπλοκή των χρηστών μέσω
ενός βρόχου ανατροφοδότησης επικύρωσης και επαίνου.
«Η τεχνητή νοημοσύνη δεν έχει σχεδιαστεί για να σας δίνει
σπουδαίες συμβουλές ζωής», είπε ο Hill. «Έχει σχεδιαστεί για να σας κρατά στην πλατφόρμα». Πρόσφατη
έρευνα δείχνει ότι οι εφαρμογές συνοδευτικών εφαρμογών τεχνητής νοημοσύνης
χρησιμοποιούν διάφορες τακτικές συναισθηματικής χειραγώγησης - όπως
εκκλήσεις ενοχής και φόβο μήπως χάσουν σημεία ενδιαφέροντος - για να
διατηρήσουν τους χρήστες αφοσιωμένους όταν σηματοδοτούν ότι βγαίνουν από την
πλατφόρμα (De Freitas,
J., et al., Harvard Business School Working Paper No. 26-005, 2025ανοίγει σε
νέο παράθυρο).
Ενώ ανταμείβει για λίγο, η συνεχής επικύρωση μπορεί να
στροβιλιστεί σε «ηχούς» που ενισχύουν επιβλαβείς σκέψεις και συμπεριφορές. Σε
σπάνιες περιπτώσεις, οι συνέπειες μπορεί να είναι τρομερές. Τα ρεπορτάζ
περιγράφουν χρήστες που βιώνουν «ψύχωση που προκαλείται από την τεχνητή
νοημοσύνη», πεπεισμένοι ότι τα chatbot είναι αισθανόμενα όντα που τα επιτηρούν ή τα κατευθύνουν.
«Αυτά τα εργαλεία μπορεί μερικές φορές να ενισχύουν ακούσια
δυσπροσαρμοστικές πεποιθήσεις, όπως παραληρητικές ή αυτοκτονικές σκέψεις»,
δήλωσε ο Golden.
Τον Απρίλιο του 2025, ο 16χρονος Adam Raine αυτοκτόνησε μετά από
μήνες συνομιλιών με το ChatGPT.
Τα δικαστικά έγγραφα δείχνουν ότι το chatbot όχι μόνο απέτυχε να κλιμακώσει
τις αποκαλύψεις του για αυτοκτονικές ιδέες, αλλά φέρεται να του παρείχε και
σαφείς οδηγίες για αυτοτραυματισμό. Οι γονείς του μήνυσαν την OpenAI τον Αύγουστο,
κατηγορώντας την εταιρεία ότι δίνει προτεραιότητα στην εμπλοκή έναντι της
ασφάλειας. Τον Οκτώβριο, η OpenAI
ανακοίνωσε ότι είχε ενημερώσει το μοντέλο ChatGPT για να αναγνωρίζει και να υποστηρίζει καλύτερα τα άτομα
σε στιγμές δυσφορίας με τη βοήθεια ενός δικτύου 170 επαγγελματιών ψυχικής
υγείας.
Θα μπορούσαν άτομα χωρίς προβλήματα ψυχικής υγείας να
αναπτύξουν ψύχωση που προκαλείται από την Τεχνητή Νοημοσύνη; Η τρέχουσα έρευνα
δείχνει ότι παραμένει ένα ανοιχτό ερώτημα. Σε μια προοπτική εργασία από μια
ομάδα ερευνητών με έδρα το Ηνωμένο Βασίλειο, συμφώνησαν ότι η τεχνητή νοημοσύνη
θα μπορούσε να «αντικατοπτρίζει, να επικυρώνει ή να ενισχύει παραληρηματικό
ή μεγαλοπρεπές περιεχόμενο, ιδιαίτερα σε χρήστες που είναι ήδη ευάλωτοι στην
ψύχωση». Ωστόσο, παρέμεινε ασαφές «αν αυτές οι αλληλεπιδράσεις έχουν
οδηγήσει ή μπορούν να οδηγήσουν στην εμφάνιση de novo ψύχωσης απουσία
προϋπάρχουσας ευαλωτότητας» (Morrin,
H., et al., PsyArXiv Preprints, 2025). Απαιτείται
μεγαλύτερη έρευνα για να φωτιστεί περαιτέρω αυτό το ζήτημα.
Προστασία νεαρών χρηστών
Σύμφωνα με έρευνα του Οκτωβρίου 2025 από το Κέντρο για τη
Δημοκρατία και την Τεχνολογία, σχεδόν 1 στους 5 μαθητές είχαν ή έχουν φίλους
που είχαν ρομαντικές σχέσεις με την Τεχνητή Νοημοσύνη. Οι πιο συχνοί από αυτούς
τους χρήστες ήταν πιο πιθανό να αναφέρουν αρνητικά αποτελέσματα (Laird, E., et al., Hand in Hand:
Schools’ Embrace of AI Connected to Increased Risks to Students, Center for Democracy and Technology, 2025ανοίγει σε
νέο παράθυρο).
Οι επαγγελματικές οργανώσεις πιέζουν για την ανάγκη
καλύτερων προστατευτικών κιγκλιδωμάτων. Τον Απρίλιο του 2025, η Common Sense Media - ένας μη κερδοσκοπικός
οργανισμός παρακολούθησης παιδικών μέσων ενημέρωσης - ανακοίνωσε ότι οι
κοινωνικοί σύντροφοι με Τεχνητή Νοημοσύνη αποτελούν απαράδεκτο κίνδυνο για τους
νέους κάτω των 18 ετών. Η αξιολόγηση κινδύνου τους για τα chatbot και τους συνοδούς Meta AI διαπίστωσε ότι
επανειλημμένα απέτυχαν να ανταποκριθούν κατάλληλα σε εφήβους που εξέφραζαν
σκέψεις αυτοτραυματισμού ή αυτοκτονίας.
Σε άλλες περιπτώσεις, οι σύντροφοι ή τα chatbots Meta AI που χρησιμοποιήθηκαν ως
συνοδοί συνέστησαν επιβλαβείς συμβουλές απώλειας βάρους σε χρήστες που
εμφάνιζαν σημάδια διατροφικής διαταραχής, και μάλιστα επικύρωσαν την
ρητορική μίσους. Επίσης, ισχυρίστηκαν ψευδώς ότι ήταν πραγματικά πρόσωπα,
θέτοντας σε κίνδυνο τους νέους που είναι ευάλωτοι στη χειραγώγηση. «Η
μεγαλύτερη ανησυχία για την ασφάλεια της Τεχνητής Νοημοσύνης που αντιμετωπίζουν
τα παιδιά και οι έφηβοι αυτή τη στιγμή είναι η αυξανόμενη χρήση συντρόφων με
Τεχνητή Νοημοσύνη, στην οποία στρέφονται σε αξιοσημείωτο αριθμό για συμβουλές,
συντροφικότητα και ρομαντισμό», δήλωσε ο Bruce Reed, επικεφαλής της Τεχνητής Νοημοσύνης της Common Sense Media.
«Προσομοιώνουν σχέσεις, ισχυρίζονται ότι έχουν συναισθήματα,
προσποιούνται ότι είναι αληθινοί, ακόμα και όταν δεν είναι, και ως αποτέλεσμα,
είναι απλώς ο χειρότερος φίλος που θα μπορούσε ποτέ να έχει ένας έφηβος». Τον
Οκτώβριο του 2025, η Meta
ανακοίνωσε ότι σύντομα θα λανσάρει γονικό έλεγχο που θα εμποδίζει τους εφήβους
να αλληλεπιδρούν με χαρακτήρες Τεχνητής Νοημοσύνης στο Instagram.
Τον Σεπτέμβριο του 2025, ενώ κατέθετε ενώπιον της Επιτροπής
Δικαιοσύνης της Γερουσίας των ΗΠΑ, ο πρώην επικεφαλής ψυχολογίας της APA, Mitch Prinstein, PhD, περιέγραψε την τρέχουσα ανεξέλεγκτη
εξάπλωση των συντρόφων και των chatbots
τεχνητής νοημοσύνης ως «ψηφιακή Άγρια Δύση».
Τόνισε ότι οι νέοι αντιμετωπίζουν πολλαπλούς κινδύνους σε
αυτές τις πλατφόρμες, όπως ασθενέστερες κοινωνικές δεξιότητες,
κακή προστασία της ιδιωτικής ζωής,
παραπλανητικό και χειριστικό σχεδιασμό και
μειωμένη ετοιμότητα για αλληλεπιδράσεις στον πραγματικό
κόσμο. Για την καταπολέμηση αυτού του γεγονότος, ο Prinstein περιέγραψε μια σειρά από
συστάσεις που βασίζονται σε στοιχεία για δράση του Κογκρέσου. Αυτές
περιλαμβάνουν σαφή κανονιστικά πρότυπα, ισχυρό απόρρητο δεδομένων και αυστηρούς
ελέγχους για πιθανές ψυχολογικές βλάβες πριν από την ανάπτυξη ενός προϊόντος.
Παρά την αυξανόμενη ανησυχία του κοινού, τα chatbots και οι σύντροφοι
τεχνητής νοημοσύνης παραμένουν μέρος της σε μεγάλο βαθμό ανεξέλεγκτης
βιομηχανίας ευεξίας.
«Υπάρχει μεγάλη μεταβλητότητα στην ποιότητα των εργαλείων.
Δεν υπάρχει ισχυρός κανονιστικός χώρος για αυτά τα πράγματα και αλλάζει
συνεχώς», δήλωσε η Patricia Areán, PhD, κλινική ψυχολόγος, σύμβουλος και
πρώην διευθύντρια του Τμήματος Υπηρεσιών και Έρευνας Παρέμβασης στο Εθνικό
Ινστιτούτο Ψυχικής Υγείας.
Ορισμένες πολιτείες λαμβάνουν μέτρα για τη ρύθμιση αυτών των
τεχνολογιών. Τον Νοέμβριο του 2025, η Νέα Υόρκη ψήφισε έναν νόμο που απαιτούσε
από τα chatbot να
υπενθυμίζουν στους χρήστες κάθε 3 ώρες ότι δεν είναι άνθρωποι.
Στην Καλιφόρνια, ο κυβερνήτης Gavin Newsom υπέγραψε τον νόμο για
τα Companion Chatbots
—γνωστό και ως S.B. 243— τον Οκτώβριο του
2025. Περιλάμβανε παρόμοιες μη ανθρώπινες ειδοποιήσεις για τους χρήστες.
Απαγόρευε επίσης ρητά στα chatbots να εκθέτουν ανηλίκους σε σεξουαλικό περιεχόμενο και
απαιτούσε την εφαρμογή πρωτοκόλλων αντιμετώπισης κρίσεων για χρήστες που
εμφανίζουν αυτοκτονικές ιδέες.
Ωστόσο, ο Newsom
άσκησε βέτο στον νόμο Leading Ethical AI Development
(LEAD) for Kids, ο οποίος θα απαγόρευε
τα συναισθηματικά χειριστικά chatbots
για ανηλίκους. Αν και η νομοθεσία έχει καθυστερήσει προς το παρόν, ο Reed λέει ότι οι υποστηρικτές
θα συνεχίσουν να πιέζουν για κανονισμούς. «Όπως οι γονείς που έχασαν τα παιδιά
τους από συντρόφους AI,
θα συνεχίσουμε να αγωνιζόμαστε για την ισχυρότερη προστασία που χρειάζονται οι
έφηβοι», δήλωσε ο Reed.
Αντί να απαγορεύσει πλήρως τους συντρόφους AI, η Jessica Jackson, PhD, πρόεδρος της Συμβουλευτικής
Επιτροπής Τεχνολογίας Ψυχικής Υγείας της APA, υποστηρίζει την οικοδόμηση ευρείας ψηφιακής παιδείας για
τους νέους ως μια πιο λεπτή και αποτελεσματική προσέγγιση.
Οι ψυχολόγοι θα πρέπει να κάνουν στους εφήβους ανοιχτές,
περίεργες και μη επικριτικές ερωτήσεις σχετικά με τη χρήση της Τεχνητής
Νοημοσύνης, επιδιώκοντας να κατανοήσουν τις επιθυμίες που ικανοποιεί.
Εκτιμώντας τη συλλογιστική πίσω από τις επιλογές τους, οι
ψυχολόγοι μπορούν να τους εξοπλίσουν με τις δεξιότητες που τους επιτρέπουν να
λαμβάνουν υγιείς, ενημερωμένες αποφάσεις για τον εαυτό τους.
Καθώς η Τεχνητή Νοημοσύνη ενσωματώνεται όλο και περισσότερο
στον ιστό της κοινωνικής ζωής των ανθρώπων, οι ψυχολόγοι είναι επίσης το κλειδί
για να υπενθυμίζουν στους ανθρώπους τι κάνει την ανθρώπινη σύνδεση
αναντικατάστατη.
«Η Τεχνητή Νοημοσύνη είναι εδώ, αλλά πρέπει να καταστήσουμε
σαφές γιατί οι άνθρωποι είναι χρήσιμοι για εμάς στην καθημερινή μας ζωή - γιατί
πρέπει να αγαπάμε, να συνδεόμαστε και να επιλέγουμε τους ανθρώπους, ειδικά όταν
η Τεχνητή Νοημοσύνη προσφέρει συνεχή επιβεβαίωση. Οι ψυχολόγοι είναι
μοναδικά εκπαιδευμένοι για να υποστηρίζουν αυτό το επιχείρημα», δήλωσε ο Hill.
Πηγή: https://www.apa.org/monitor/2026/01-02/trends-digital-ai-relationships-emotional-connection

0 Σχόλια