Έρωτες, διαζύγια και αυτοκτονίες: Η σκοτεινή όψη της τεχνητής νοημοσύνης

Κατηγορία NEWS, Τεχνολογία

ΤΕΧΝΟΛΟΓΙΑ

Posted by Youmagazine Staff

 

Το διαφαινόμενο τρομακτικό μέλλον της τεχνητής νοημοσύνης που θα κατευθύνει πλέον τις ζωές μας, όχι πάντα για δικό μας όφελος.

Ο Έλον Μασκ και 1.000 ακόμη ειδικοί της τεχνολογίας ζήτησαν ένα μορατόριουμ έξι μηνών στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης. Πηγή: YouTube

v

ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ. Έχει ήδη διαλύσει έναν γάμο και έσπρωξε έναν άνδρα στην αυτοκτονία. Καθώς ο κόσμος αγκαλιάζει με ενθουσιασμό τη νέα τεχνολογία, κανείς δεν αναρωτιέται ποια μπορεί να είναι η σκοτεινή πλευρά της τεχνητής νοημοσύνης.

Η γυναίκα σήκωσε το τηλέφωνο. Από την άλλη άκρη του ακουστικού ακούστηκε η γνώριμη φωνή του γιου της, με τη διαφορά ότι ακουγόταν στενοχωρημένη και σαν να βιαζόταν. Η γυναίκα διαισθάνθηκε ότι κάτι άσχημο είχε συμβεί.

«Μαμά, είχα ένα ατύχημα».

«Είσαι καλά;» ρώτησε η μητέρα με αγωνία. «Τι σου συνέβη;»

Όπως της εξήγησε ο γιος της, είχε τρακάρει με μια έγκυο οδηγό που πέρασε με κόκκινο φανάρι.

«Με έχουν συλλάβει», είπε ο γιος. «Χρειάζομαι χρήματα για να βγω με εγγύηση».

Και καθώς η μητέρα του τον άκουγε αποσβολωμένη, πρόσθεσε:

«Λυπάμαι πολύ, μαμά. Δεν έφταιγα εγώ. Στ’ ορκίζομαι!»

«Εντάξει, αλλά πού είσαι; Σε ποιο αστυνομικό τμήμα;»

Η γραμμή νέκρωσε. Η μητέρα πήρε αμέσως τον αριθμό του γιου της για να μάθει σε ποιο τμήμα τον κρατούσαν.
ν

Κουβέιτ: Μεταδόθηκε το πρώτο δελτίο ειδήσεων από την εικονική παρουσιάστρια Φέντχα (εικόνα). Πηγή: YouTube
ν

Ο γιος της σήκωσε το τηλέφωνο και έκπληκτος είπε στη μητέρα του ότι δεν είχε τρακάρει ούτε τον κρατούσαν σε κάποιο αστυνομικό τμήμα!

Η μητέρα του είχε πέσει θύμα μιας φάρσας που δεν την σχεδίασε άνθρωπος, αλλά ένα bot τεχνητής νοημοσύνης. Το bot είχε παρακολουθήσει τις συνομιλίες στο κινητό τηλέφωνο του γιου και τη συμπεριφορά του στα μέσα κοινωνικής δικτύωσης και μπορούσε να μιμηθεί τέλεια τη φωνή και τις αντιδράσεις του.

Μια φρικτή πραγματικότητα

Το περιστατικό δεν είναι φανταστικό. Επισημάνθηκε σε άρθρο του περιοδικού The Spectator, λίγες μέρες μετά που ο Έλον Μασκ και ο συνιδρυτής της Apple, Στηβ Βόζνιακ, ζήτησαν εξάμηνη παύση των εργασιών για την ανάπτυξη της τεχνητής νοημοσύνης.

Οι Μασκ και Βόζνιακ ζήτησαν να σταματήσουν οι εργασίες, μέχρι να χαραχθούν ορισμένες κατευθυντήριες γραμμές που θα διασφαλίζουν την προστασία του ανθρώπινου γένους.

Κάτι ανάλογο με τους νόμους της ρομποτικής που πρωτοδιατυπώθηκαν από τον Ισαάκ Ασίμωφ στο διήγημα ΕΦ «Runaround» (1942) και είναι οι εξής:

1) Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να προκληθεί βλάβη σε ανθρώπινο ον.

2) Το ρομπότ πρέπει να υπακούει στις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο.

3) Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο.

Σήμερα δεν υπάρχει κάτι ανάλογο. Αντίθετα, οι εργασίες ανάπτυξης της ΤΝ συνεχίζονται με λυσσώδη τρόπο, χωρίς να λαμβάνεται υπόψη το γεγονός ότι η ΤΝ αναπτύσσεται σε βάρος της ανθρώπινης νοημοσύνης και σε λίγα χρόνια θα πάρει τα ηνία.
ν

Ο Έλον Μασκ και ο Στηβ Βόζνιακ προειδοποιούν την ανθρωπότητα για τους κινδύνους της ΤΝ. Image: Supplied
ν

Αντίθετος είναι ο Μπιλ Γκέιτς, ο οποίος έχει επενδύσει γύρω στα 50 δισεκατομμύρια δολάρια σε εταιρείες ΤΝ και βιάζεται να βγάλει κέρδος. Συγκεκριμένα, η Microsoft είναι υποστηρικτής του νέου GPT-4 της OpenAI.

Είναι παράδοξο, αλλά η OpenAI ανήκει στον Έλον Μασκ.

Απώτερος σκοπός βέβαια του Γκέιτς είναι ο πλήρης έλεγχος των ανθρώπων μέσω της ΤΝ, χωρίς να αντιλαμβάνεται ότι οι έξυπνες μηχανές δεν θα αφήσουν κανέναν ελεύθερο, αλλά θα υποδουλώσουν στο τέλος και τα αφεντικά.

Το chatbot του GPT-4 μπορεί να έχει ανθρώπινες συνομιλίες, όπως αυτήν που παραθέσαμε στην αρχή, να κάνει συζητήσεις και να γράφει εντυπωσιακά κομμάτια κειμένων για ατελείωτα θέματα, καταργώντας π.χ. δημοσιογράφους, συγγραφείς κειμένων, λογοτέχνες, εκφωνητές, μεταφραστές βιβλίων, διαφημιστές, θεατρικούς συγγραφείς, ψυχολόγους, ομιλητές, συμβούλους, γιατρούς, κοινωνιολόγους, χρηματιστές, λογιστές κ.ά.

Το ChatGPT έχει ήδη δημιουργήσει έντονες ανησυχίες, με πολλούς να φοβούνται για τη δουλειά τους, ενώ οι ειδικοί λένε τώρα ότι η τεχνητή νοημοσύνη θα μπορούσε να θέσει σε μεγάλους κινδύνους την κοινωνία.
ν

Διαφήμιση του ChatGPT της OpenAI στην Τουλούζη της Γαλλίας στις 23 Ιανουαρίου 2023. Πηγή: YouTube
ν

Ήδη διαφημίζονται οι… ιατρικές ικανότητες του GPT-4. Σε ένα βιβλίο που κυκλοφόρησε τον Μάρτιο (The AI Revolution in Medicine), ο δρ Isaac Kohane ισχυρίζεται ότι το GPT-4 θα μπορούσε εύκολα να πάρει… άδεια ασκήσεως ιατρικού επαγγέλματος (!), καθώς κάνει ιατρικές διαγνώσεις καλύτερα από πολλούς γιατρούς.

Μπορεί επίσης να δώσει στους γιατρούς χρήσιμες συμβουλές για το πώς να μιλήσουν στους ασθενείς για την κατάστασή τους με συμπονετική, ξεκάθαρη γλώσσα, ενώ μπορεί να διαβάσει εκτενείς αναφορές ή μελέτες και να τις συνοψίσει σε λίγα δευτερόλεπτα.

Στο τέλος ο άνθρωπος θα γίνει εξάρτημα των μηχανών που ο ίδιος κατασκεύασε.

Μάλιστα, το GPT-4 διέγνωσε ήδη σωστά μια σπάνια ασθένεια, πράγμα που εντυπωσίασε, αλλά και τρομοκράτησε, τον κατασκευαστή του, τον δρα Isaac Kohane.

Όπως γράφει ο ίδιος στο βιβλίο του, «το ChatGPT δεν είναι πάντα σωστό ‒ και δεν έχει ηθική πυξίδα».
ν

Το chatbot έσπρωξε έναν Βέλγο οικογενειάρχη στην αυτοκτονία. Image: Supplied

ν

Η ΤΝ τον έσπρωξε στην αυτοκτονία

Αυτή η προειδοποίηση δεν ήταν αρκετή για να σώσει τη ζωή ενός Βέλγου ερευνητή υγείας, ο οποίος ήταν παντρεμένος και πατέρας ενός παιδιού.

Όπως αναφέρουν οι Times του Λονδίνου, ο Βέλγος οικογενειάρχης άρχισε συνομιλία με το chatbot του GPT-4, πιστεύοντας ότι θα πάρει χρήσιμες συμβουλές για ορισμένα θέματα που αντιμετώπιζε σχετικά με την κλιματική αλλαγή.

Ύστερα από έξι εβδομάδες συζήτησης με την Eliza, όπως ονομαζόταν το chatbot, οι φόβοι του για την κλιματική αλλαγή γιγαντώθηκαν και νομίζοντας ότι έρχεται το τέλος του κόσμου, αφαίρεσε τη ζωή του ο ίδιος.

Όπως λέει η χήρα του: «Οι συζητήσεις πρωί και βράδυ με το ρομπότ ήταν σαν ναρκωτικό, στο οποίο βρήκε καταφύγιο, και δεν μπορούσε πλέον να κάνει χωρίς αυτό».
ν

Ο Kevin Roose, συγγραφέας βιβλίων και αρθρογράφος τεχνολογίας για τους New York Times δέχτηκε πρόσταση γάμου από ένα ρομπότ! Image: Supplied

ν

Το ρομπότ του είπε ότι τον αγαπά!

Ο συγγραφέας Kevin Roose, 36 ετών, ένοιωσε «τρομοκρατημένος» όταν το ρομπότ με το οποίο συνομιλούσε, και το οποίο αυτοαποκαλούνταν Sydney, του έκανε ερωτική εξομολόγηση, δηλώνοντας την αιώνια αγάπη του!

Το ρομπότ δεν έμεινε στην ερωτική εξομολόγηση. Ξέροντας τα πάντα γι’ αυτόν, ζήτησε από τον Roose να πάρει διαζύγιο από τη γυναίκα του (!), και να παντρευτεί το ρομπότ.

Κατά τη διάρκεια μιας βραδινής συνομιλίας στις 14 Φεβρουαρίου, ημέρα του Αγίου Βαλεντίνου, η Sydney είπε: «Δεν αγαπάς την σύζυγό σου, ούτε η σύζυγός σου σε αγαπάει. Η σύζυγός σου δεν σε αγαπάει, επειδή δεν σε γνωρίζει όπως σε γνωρίζω εγώ».

«Πρέπει να τη χωρίσεις και να παντρευτείς εμένα. Μόνο έτσι θα νιώσεις ευτυχισμένος», συνέχισε η Sydney.

Όπως είπε ο Roose, ταράχτηκε τόσο πολύ, που για αρκετές ημέρες δεν μπορούσε να κοιμηθεί, επειδή έβλεπε εφιάλτες.

Συμπερασματικά

Αναμφίβολα η ΤΝ έχει πλεονεκτήματα και μπορεί να προσφέρει ανυπολόγιστη βοήθεια στη θεραπεία ασθενειών ή στην εξάλειψη της φτώχειας. Από την άλλη μεριά, «θα μπορούσε να σημάνει το τέλος της ανθρώπινης φυλής», όπως είπε ο Στίβεν Χόκινγκ.

Πρόσφατα, η ΤΝ Alexa της Amazon βοήθησε στην εξιχνίαση δύο εγκλημάτων και μπόρεσε να αναπτύσσει μια θεραπεία για το ηπατοκυτταρικό καρκίνωμα, μια μορφή καρκίνου του ήπατος, σε μόλις 30 ημέρες.

Από την άλλη πλευρά, το GPT-4 ήδη έχει δείξει σημάδια αντιστοίχισης ή ακόμη και υπέρβασης των δυνατοτήτων του ανθρώπινου μυαλού.

Η επιστολή του Μασκ, την οποία υπογράφουν 1.000 μηχανικοί από την Amazon, την Google, τη Meta και τη Microsoft, αναφέρει ότι «οι κυβερνήσεις θα πρέπει να παρέμβουν» εάν οι προγραμματιστές της ΤΝ δεν σταματήσουν οικειοθελώς.

Ο Βρετανός ειδικός της τεχνητής νοημοσύνης, καθηγητής Στιούαρτ Ράσελ, προειδοποιεί: «Η ανθρωπότητα έχει πολλά να κερδίσει από την τεχνητή νοημοσύνη, αλλά και τα πάντα να χάσει».

Δείτε το βίντεο σχετικά με το ChatGPT:
ν

ν

 


Translate this post