Υποστήριξε ότι οι προθέσεις πίσω από την AI -κέρδος ή στρατιωτική άμυνα- διαμορφώνουν τα αποτελέσματα και προειδοποίησε για μια δυναμική αγώνων όπλων όπου οι αντίπαλοι αισθάνονται υποχρεωμένοι να χτίσουν όλο και πιο ικανά συστήματα.
Σε συνεντεύξεις παρακολούθησης και κάλυψη του 2025, οξύνει το σημείο: ο συνδυασμός της AI με οπλικά συστήματα, συμπεριλαμβανομένων των πυρηνικών περιβαλλόντων διοίκησης και ελέγχου, θα μπορούσε να δημιουργήσει βρόχους αποφάσεων πιο γρήγορα από ό,τι μπορούν να επιβλέπουν με ασφάλεια οι άνθρωποι, με κίνδυνο καταστροφικών λαθών.
Σε αυτές τις συνεντεύξεις παραθέτει επανειλημμένα τρεις συγκλίνουσες υπαρξιακές απειλές -περιβαλλοντική υποβάθμιση, πυρηνικά όπλα και υπερ νοημοσύνη AI - ενώ παραδέχεται ότι η υπερφυής AI θα μπορούσε, θεωρητικά, να συμβάλει επίσης σε λύσεις.
Την ίδια στιγμή, ο Cameron παραμένει σκεπτικός ότι η AI μπορεί να αντικαταστήσει την ανθρώπινη δημιουργικότητα στη συγγραφή σεναρίων και την αφήγηση ιστοριών.
Η συνολική εικόνα δεν είναι απλή ανησυχία αλλά μια έκκληση για προσοχή, διακυβέρνηση και διατήρηση της ουσιαστικής ανθρώπινης κρίσης στο βρόχο.
Παραδόξως, η στάση του συνυπάρχει με την πρακτική ενασχόληση με την generative-AI tooling για δημιουργούς, όπως φαίνεται στο ραντεβού του για το 2024 στο συμβούλιο της Stability AI - υπογραμμίζοντας την άποψή του ότι τα οφέλη και οι κίνδυνοι της AI πρέπει να διαχειριστούν σκόπιμα αντί να αγκαλιάζονται ή να απορριφθούν εντελώς.
ΠΗΓΗ SOCIAL
Δώστε την υποστήριξη σας στην έρευνα κάνοντας LIKE.
Δώστε την υποστήριξη σας στην έρευνα κάνοντας LIKE.
0 comments:
Δημοσίευση σχολίου