"ΒΟΜΒΑ" των ειδικών: Η Τεχνητή Νοημοσύνη απειλεί την ανθρωπότητα με εξαφάνιση
👉Τον κώδωνα του κινδύνου έκρουσαν κάποιοι ειδικοί, μεταξύ των οποίων οι επικεφαλής των Open AI και Google Deepmind, λέγοντας πως η τεχνητή νοημοσύνη μπορεί να οδηγήσει στην εξαφάνιση της ανθρωπότητας.
Σύμφωνα με άρθρο του BBC, εκατοντάδες ειδικοί, CEO και δημοσιογράφοι έχουν υπογράψει μία δήλωση που δημοσιεύθηκε στην ιστοσελίδα του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης. Αυτή αναφέρει ότι «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».
Πιθανά σενάρια καταστροφής
Ο Σαμ Άλτμαν, διευθύνων σύμβουλος της κατασκευάστριας εταιρείας του ChatGPT OpenAI, ο Ντέμης Χασάμπης, διευθύνων σύμβουλος της Google DeepMind και ο Ντάριο Αμοντέι της Anthropic έχουν υποστηρίξει τη δήλωση.
Ακόμη, ο δικτυακός τόπος του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης προτείνει μια σειρά από πιθανά σενάρια καταστροφής:Μέσω της τεχνητής νοημοσύνης θα μπορούσαν να δημιουργηθούν χημικά όπλα
Η παραπληροφόρηση που παράγεται από την ΑΙ θα μπορούσε να αποσταθεροποιήσει την κοινωνία και να «υπονομεύσει τη συλλογική λήψη αποφάσεων»
Η δύναμη της ΑΙ θα μπορούσε να συγκεντρωθεί όλο και περισσότερο σε όλο και λιγότερα χέρια, επιτρέποντας σε «καθεστώτα να επιβάλλουν στενές αξίες μέσω της διάχυτης επιτήρησης και της καταπιεστικής λογοκρισίας».
Διίστανται οι απόψεις
Πολλοί άλλοι εμπειρογνώμονες πιστεύουν ότι οι φόβοι που έχουν δημιουργηθεί, ότι η Τεχνητή Νοημοσύνη θα εξαφανίσει την ανθρωπότητα είναι μη ρεαλιστικοί και αποσπούν την προσοχή από ζητήματα όπως η προκατάληψη στα συστήματα που αποτελούν ήδη πρόβλημα.
Ο Arvind Narayanan, επιστήμονας πληροφορικής στο Πανεπιστήμιο Princeton, έχει δηλώσει στο παρελθόν στο BBC ότι τα σενάρια καταστροφής που μοιάζουν με επιστημονική φαντασία είναι μη ρεαλιστικά: «Η σημερινή τεχνητή νοημοσύνη δεν είναι ούτε κατά διάνοια αρκετά ικανή ώστε να υλοποιηθούν αυτοί οι κίνδυνοι. Ως αποτέλεσμα, έχει αποσπάσει την προσοχή από τις βραχυπρόθεσμες βλάβες της ΤΝ». Η ανώτερη επιστημονική συνεργάτης του Ινστιτούτου Ηθικής της Τεχνητής Νοημοσύνης της Οξφόρδης, Elizabeth Renieris, δήλωσε στο BBC News ότι ανησυχεί περισσότερο για τους κινδύνους που βρίσκονται πιο κοντά στο παρόν.
«Οι εξελίξεις στην ΑΙ θα μεγεθύνουν την κλίμακα της αυτοματοποιημένης λήψης αποφάσεων που είναι προκατειλημμένες, μεροληπτικές, αποκλειστικές ή με άλλο τρόπο άδικες, ενώ παράλληλα είναι ανεξιχνίαστες και αδιαμφισβήτητες», δήλωσε η ίδια. Θα οδηγήσουν «σε εκθετική αύξηση του όγκου και της διάδοσης της παραπληροφόρησης, διασπώντας έτσι την πραγματικότητα και διαβρώνοντας την εμπιστοσύνη του κοινού, και θα οδηγήσουν σε περαιτέρω ανισότητα, ιδίως για όσους παραμένουν στη λάθος πλευρά του ψηφιακού χάσματος».
Πώς εκπαιδεύονται τα μηχανήματα
Πολλά εργαλεία τεχνητής νοημοσύνης ουσιαστικά «εκμεταλλεύονται» το «σύνολο της ανθρώπινης εμπειρίας μέχρι σήμερα», δήλωσε η κ. Renieris. Πολλά από αυτά εκπαιδεύονται πάνω σε περιεχόμενο, κείμενο, τέχνη και μουσική που έχει δημιουργηθεί από τον άνθρωπο και μπορούν στη συνέχεια να τα μιμηθούν – και οι δημιουργοί τους «έχουν ουσιαστικά μεταφέρει τεράστιο πλούτο και δύναμη από τη δημόσια σφαίρα σε μια μικρή χούφτα ιδιωτικών οντοτήτων».
Ωστόσο, ο διευθυντής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης Dan Hendrycks δήλωσε στο BBC News ότι οι μελλοντικοί κίνδυνοι και οι σημερινές ανησυχίες «δεν πρέπει να αντιμετωπίζονται ανταγωνιστικά». «Η αντιμετώπιση ορισμένων από τα ζητήματα που έχουν ανακύψει σήμερα μπορεί να είναι πιο χρήσιμα για την αντιμετώπιση πολλών από τους μετέπειτα κινδύνους», δήλωσε.
«Καθησυχαστικός» ο Σούνακ για την ΑΙ
Τόσο ο Σαμ Άλτμαν, όσο και ο διευθύνων σύμβουλος της Google Σούνταρ Πιτσάι είναι μεταξύ των ηγετών της τεχνολογίας που συζήτησαν πρόσφατα με τον Βρετανό πρωθυπουργό για τη ρύθμιση της τεχνητής νοημοσύνης. Μιλώντας σε δημοσιογράφους για την τελευταία προειδοποίηση σχετικά με τον κίνδυνο της τεχνητής νοημοσύνης, ο Ρίσι Σουνάκ τόνισε τα οφέλη για την οικονομία και την κοινωνία.
«Είδατε ότι πρόσφατα βοήθησε παράλυτους ανθρώπους να περπατήσουν, ανακάλυψε νέα αντιβιοτικά, αλλά πρέπει να βεβαιωθούμε ότι αυτό γίνεται με τρόπο που να είναι ασφαλής και προστατευμένος», είπε. «Γι’ αυτό συναντήθηκα την περασμένη εβδομάδα με τους διευθύνοντες συμβούλους των μεγαλύτερων εταιρειών τεχνητής νοημοσύνης για να συζητήσουμε ποιες είναι οι προστατευτικές μπάρες που πρέπει να θέσουμε σε εφαρμογή, ποιος είναι ο τύπος της ρύθμισης που πρέπει να τεθεί σε εφαρμογή για να είμαστε ασφαλείς.»
«Θέλω να τους καθησυχάσω ότι η κυβέρνηση το εξετάζει πολύ προσεκτικά». Είχε συζητήσει το θέμα πρόσφατα με άλλους ηγέτες, στη σύνοδο κορυφής της G7 των κορυφαίων βιομηχανικών χωρών, δήλωσε ο κ. Σουνάκ, και θα το θέσει ξανά στις ΗΠΑ σύντομα.
Η G7 δημιούργησε πρόσφατα μια ομάδα εργασίας για την τεχνητή νοημοσύνη.
Δείτε το βίντεο
Σύμφωνα με άρθρο του BBC, εκατοντάδες ειδικοί, CEO και δημοσιογράφοι έχουν υπογράψει μία δήλωση που δημοσιεύθηκε στην ιστοσελίδα του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης. Αυτή αναφέρει ότι «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».
Πιθανά σενάρια καταστροφής
Ο Σαμ Άλτμαν, διευθύνων σύμβουλος της κατασκευάστριας εταιρείας του ChatGPT OpenAI, ο Ντέμης Χασάμπης, διευθύνων σύμβουλος της Google DeepMind και ο Ντάριο Αμοντέι της Anthropic έχουν υποστηρίξει τη δήλωση.
Ακόμη, ο δικτυακός τόπος του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης προτείνει μια σειρά από πιθανά σενάρια καταστροφής:Μέσω της τεχνητής νοημοσύνης θα μπορούσαν να δημιουργηθούν χημικά όπλα
Η παραπληροφόρηση που παράγεται από την ΑΙ θα μπορούσε να αποσταθεροποιήσει την κοινωνία και να «υπονομεύσει τη συλλογική λήψη αποφάσεων»
Η δύναμη της ΑΙ θα μπορούσε να συγκεντρωθεί όλο και περισσότερο σε όλο και λιγότερα χέρια, επιτρέποντας σε «καθεστώτα να επιβάλλουν στενές αξίες μέσω της διάχυτης επιτήρησης και της καταπιεστικής λογοκρισίας».
Υπερβολικές οι αντιδράσεις
Ο Δρ Geoffrey Hinton, ο οποίος είχε προειδοποιήσει για τους κινδύνους από την υπερ-ευφυή ΑΙ, υποστήριξε επίσης την έκκληση του Κέντρου για την Ασφάλεια της ΑΙ. Ο Yoshua Bengio, καθηγητής πληροφορικής στο πανεπιστήμιο του Μόντρεαλ, υπέγραψε επίσης.
Ο δρ Χίντον, ο καθηγητής Μπένγκιο και ο καθηγητής του NYU Γιαν ΛεΚουν περιγράφονται συχνά ως οι «νονοί της τεχνητής νοημοσύνης» για το πρωτοποριακό έργο τους στον τομέα – για το οποίο κέρδισαν από κοινού το βραβείο Turing 2018, το οποίο αναγνωρίζει τις εξαιρετικές συνεισφορές στην επιστήμη των υπολογιστών.
Ωστόσο, ο καθηγητής LeCun, ο οποίος εργάζεται επίσης στη Meta, δήλωσε ότι αυτές οι αποκαλυπτικές προειδοποιήσεις είναι υπερβολικές, γράφοντας στο Twitter ότι «η πιο συνηθισμένη αντίδραση των ερευνητών ΑΙ σε αυτές τις προφητείες καταστροφής είναι η αναδίπλωση».
Ο Δρ Geoffrey Hinton, ο οποίος είχε προειδοποιήσει για τους κινδύνους από την υπερ-ευφυή ΑΙ, υποστήριξε επίσης την έκκληση του Κέντρου για την Ασφάλεια της ΑΙ. Ο Yoshua Bengio, καθηγητής πληροφορικής στο πανεπιστήμιο του Μόντρεαλ, υπέγραψε επίσης.
Ο δρ Χίντον, ο καθηγητής Μπένγκιο και ο καθηγητής του NYU Γιαν ΛεΚουν περιγράφονται συχνά ως οι «νονοί της τεχνητής νοημοσύνης» για το πρωτοποριακό έργο τους στον τομέα – για το οποίο κέρδισαν από κοινού το βραβείο Turing 2018, το οποίο αναγνωρίζει τις εξαιρετικές συνεισφορές στην επιστήμη των υπολογιστών.
Ωστόσο, ο καθηγητής LeCun, ο οποίος εργάζεται επίσης στη Meta, δήλωσε ότι αυτές οι αποκαλυπτικές προειδοποιήσεις είναι υπερβολικές, γράφοντας στο Twitter ότι «η πιο συνηθισμένη αντίδραση των ερευνητών ΑΙ σε αυτές τις προφητείες καταστροφής είναι η αναδίπλωση».
Διίστανται οι απόψεις
Πολλοί άλλοι εμπειρογνώμονες πιστεύουν ότι οι φόβοι που έχουν δημιουργηθεί, ότι η Τεχνητή Νοημοσύνη θα εξαφανίσει την ανθρωπότητα είναι μη ρεαλιστικοί και αποσπούν την προσοχή από ζητήματα όπως η προκατάληψη στα συστήματα που αποτελούν ήδη πρόβλημα.
Ο Arvind Narayanan, επιστήμονας πληροφορικής στο Πανεπιστήμιο Princeton, έχει δηλώσει στο παρελθόν στο BBC ότι τα σενάρια καταστροφής που μοιάζουν με επιστημονική φαντασία είναι μη ρεαλιστικά: «Η σημερινή τεχνητή νοημοσύνη δεν είναι ούτε κατά διάνοια αρκετά ικανή ώστε να υλοποιηθούν αυτοί οι κίνδυνοι. Ως αποτέλεσμα, έχει αποσπάσει την προσοχή από τις βραχυπρόθεσμες βλάβες της ΤΝ». Η ανώτερη επιστημονική συνεργάτης του Ινστιτούτου Ηθικής της Τεχνητής Νοημοσύνης της Οξφόρδης, Elizabeth Renieris, δήλωσε στο BBC News ότι ανησυχεί περισσότερο για τους κινδύνους που βρίσκονται πιο κοντά στο παρόν.
«Οι εξελίξεις στην ΑΙ θα μεγεθύνουν την κλίμακα της αυτοματοποιημένης λήψης αποφάσεων που είναι προκατειλημμένες, μεροληπτικές, αποκλειστικές ή με άλλο τρόπο άδικες, ενώ παράλληλα είναι ανεξιχνίαστες και αδιαμφισβήτητες», δήλωσε η ίδια. Θα οδηγήσουν «σε εκθετική αύξηση του όγκου και της διάδοσης της παραπληροφόρησης, διασπώντας έτσι την πραγματικότητα και διαβρώνοντας την εμπιστοσύνη του κοινού, και θα οδηγήσουν σε περαιτέρω ανισότητα, ιδίως για όσους παραμένουν στη λάθος πλευρά του ψηφιακού χάσματος».
Πώς εκπαιδεύονται τα μηχανήματα
Πολλά εργαλεία τεχνητής νοημοσύνης ουσιαστικά «εκμεταλλεύονται» το «σύνολο της ανθρώπινης εμπειρίας μέχρι σήμερα», δήλωσε η κ. Renieris. Πολλά από αυτά εκπαιδεύονται πάνω σε περιεχόμενο, κείμενο, τέχνη και μουσική που έχει δημιουργηθεί από τον άνθρωπο και μπορούν στη συνέχεια να τα μιμηθούν – και οι δημιουργοί τους «έχουν ουσιαστικά μεταφέρει τεράστιο πλούτο και δύναμη από τη δημόσια σφαίρα σε μια μικρή χούφτα ιδιωτικών οντοτήτων».
Ωστόσο, ο διευθυντής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης Dan Hendrycks δήλωσε στο BBC News ότι οι μελλοντικοί κίνδυνοι και οι σημερινές ανησυχίες «δεν πρέπει να αντιμετωπίζονται ανταγωνιστικά». «Η αντιμετώπιση ορισμένων από τα ζητήματα που έχουν ανακύψει σήμερα μπορεί να είναι πιο χρήσιμα για την αντιμετώπιση πολλών από τους μετέπειτα κινδύνους», δήλωσε.
Πώς θα μπορούσε να ρυθμιστεί η τεχνητή νοημοσύνη
Η κάλυψη από τα μέσα ενημέρωσης της υποτιθέμενης «υπαρξιακής» απειλής από την Τεχνητή Νοημοσύνη έχει πάρει διαστάσεις χιονοστιβάδας από τον Μάρτιο του 2023, όταν ειδικοί, συμπεριλαμβανομένου του αφεντικού της Tesla, Elon Musk, υπέγραψαν ανοιχτή επιστολή με την οποία ζητούσαν να σταματήσει η ανάπτυξη της επόμενης γενιάς τεχνολογίας Τεχνητής Νοημοσύνης.
Η εν λόγω επιστολή ρωτούσε αν θα πρέπει να «αναπτύξουμε μη ανθρώπινα μυαλά που μπορεί τελικά να μας ξεπεράσουν, και να μας αντικαταστήσουν». Αντίθετα, η νέα εκστρατεία έχει μια πολύ σύντομη δήλωση, σχεδιασμένη να «ανοίξει τη συζήτηση».
Η δήλωση συγκρίνει τον κίνδυνο με εκείνον του πυρηνικού πολέμου. Σε μια ανάρτηση στο blog της η OpenAI πρότεινε πρόσφατα ότι η υπερ-νοημοσύνη θα μπορούσε να ρυθμιστεί με παρόμοιο τρόπο με την πυρηνική ενέργεια: «Είναι πιθανό να χρειαστούμε τελικά κάτι σαν τον ΙΑΕΑ [Διεθνής Οργανισμός Ατομικής Ενέργειας] για τις προσπάθειες υπερ-νοημοσύνης» έγραψε η εταιρεία.
Η κάλυψη από τα μέσα ενημέρωσης της υποτιθέμενης «υπαρξιακής» απειλής από την Τεχνητή Νοημοσύνη έχει πάρει διαστάσεις χιονοστιβάδας από τον Μάρτιο του 2023, όταν ειδικοί, συμπεριλαμβανομένου του αφεντικού της Tesla, Elon Musk, υπέγραψαν ανοιχτή επιστολή με την οποία ζητούσαν να σταματήσει η ανάπτυξη της επόμενης γενιάς τεχνολογίας Τεχνητής Νοημοσύνης.
Η εν λόγω επιστολή ρωτούσε αν θα πρέπει να «αναπτύξουμε μη ανθρώπινα μυαλά που μπορεί τελικά να μας ξεπεράσουν, και να μας αντικαταστήσουν». Αντίθετα, η νέα εκστρατεία έχει μια πολύ σύντομη δήλωση, σχεδιασμένη να «ανοίξει τη συζήτηση».
Η δήλωση συγκρίνει τον κίνδυνο με εκείνον του πυρηνικού πολέμου. Σε μια ανάρτηση στο blog της η OpenAI πρότεινε πρόσφατα ότι η υπερ-νοημοσύνη θα μπορούσε να ρυθμιστεί με παρόμοιο τρόπο με την πυρηνική ενέργεια: «Είναι πιθανό να χρειαστούμε τελικά κάτι σαν τον ΙΑΕΑ [Διεθνής Οργανισμός Ατομικής Ενέργειας] για τις προσπάθειες υπερ-νοημοσύνης» έγραψε η εταιρεία.
«Καθησυχαστικός» ο Σούνακ για την ΑΙ
Τόσο ο Σαμ Άλτμαν, όσο και ο διευθύνων σύμβουλος της Google Σούνταρ Πιτσάι είναι μεταξύ των ηγετών της τεχνολογίας που συζήτησαν πρόσφατα με τον Βρετανό πρωθυπουργό για τη ρύθμιση της τεχνητής νοημοσύνης. Μιλώντας σε δημοσιογράφους για την τελευταία προειδοποίηση σχετικά με τον κίνδυνο της τεχνητής νοημοσύνης, ο Ρίσι Σουνάκ τόνισε τα οφέλη για την οικονομία και την κοινωνία.
«Είδατε ότι πρόσφατα βοήθησε παράλυτους ανθρώπους να περπατήσουν, ανακάλυψε νέα αντιβιοτικά, αλλά πρέπει να βεβαιωθούμε ότι αυτό γίνεται με τρόπο που να είναι ασφαλής και προστατευμένος», είπε. «Γι’ αυτό συναντήθηκα την περασμένη εβδομάδα με τους διευθύνοντες συμβούλους των μεγαλύτερων εταιρειών τεχνητής νοημοσύνης για να συζητήσουμε ποιες είναι οι προστατευτικές μπάρες που πρέπει να θέσουμε σε εφαρμογή, ποιος είναι ο τύπος της ρύθμισης που πρέπει να τεθεί σε εφαρμογή για να είμαστε ασφαλείς.»
«Θέλω να τους καθησυχάσω ότι η κυβέρνηση το εξετάζει πολύ προσεκτικά». Είχε συζητήσει το θέμα πρόσφατα με άλλους ηγέτες, στη σύνοδο κορυφής της G7 των κορυφαίων βιομηχανικών χωρών, δήλωσε ο κ. Σουνάκ, και θα το θέσει ξανά στις ΗΠΑ σύντομα.
Η G7 δημιούργησε πρόσφατα μια ομάδα εργασίας για την τεχνητή νοημοσύνη.
Δείτε το βίντεο