Η τεχνητή νοημοσύνη είναι σε θέση να δημιουργήσει ένα αντίγραφο οποιουδήποτε ανθρώπου με ακρίβεια 85%, ξοδεύοντας μόνο 2 ώρες. Ας διευκρινίσουμε: όχι την εξωτερική εμφάνιση, όχι τη φωνή, αλλά τη συμπεριφορά σε διάφορες καταστάσεις, τα χαρακτηριστικά του χαρακτήρα του πραγματικού πρωτοτύπου. Οι ειδικοί της Google και του Πανεπιστημίου του Στάνφορντ γράφουν για την έρευνα αυτή στο arXiv.org.
Φυσικά, πολλοί άνθρωποι θα βρουν αυτή την έκθεση δυσπιστία, για να το θέσουμε ήπια. Άλλη μια ψευδο-αίσθηση; Πώς μπορεί το πιο πολύπλοκο πλάσμα στον πλανήτη, πάνω στο αίνιγμα του οποίου προβληματίζονται μεγάλοι στοχαστές και συγγραφείς, να οδηγηθεί σε ένα αντίγραφο τεχνητής νοημοσύνης;
Τι έκαναν λοιπόν οι συγγραφείς της μελέτης; Για να δημιουργήσουν ψηφιακά αντίγραφα, ζήτησαν από μια ομάδα περίπου 1.000 ανθρώπων να απαντήσουν σε ερωτήσεις σχετικά με τις αξίες της ζωής τους, τις προσωπικές τους εμπειρίες, τις απόψεις τους για κοινωνικά ζητήματα κ.λπ. Επιπλέον, οι συμμετέχοντες στο πείραμα έπαιξαν λογικά παιχνίδια, τα οποία τους επέτρεψαν να αξιολογήσουν τον τρόπο με τον οποίο λαμβάνουν αποφάσεις σε διάφορες καταστάσεις.
Οι πληροφορίες αυτές αποτέλεσαν το πηγαίο υλικό από το οποίο το πρόγραμμα “έπλασε” αντίγραφα τεχνητής νοημοσύνης. Όταν τα τεστ που έκαναν οι συμμετέχοντες στο πείραμα παρουσιάστηκαν στα τεχνητά τους ανάλογα, εκείνα επανέλαβαν τις απαντήσεις με ακρίβεια 85%.
Ο σκοπός τέτοιων μελετών είναι προφανής: να κατανοήσουμε εκ των προτέρων πώς ένα άτομο μπορεί να συμπεριφερθεί σε διάφορες καταστάσεις, για παράδειγμα, θα αντιδράσει σε ορισμένους νέους νόμους, δημόσιες εκστρατείες, αλλαγές στην κοινωνική πολιτική, ποιος θα προτιμήσει να ψηφίσει σε μια προεκλογική εκστρατεία. Και φυσικά, πολλές εταιρείες ενδιαφέρονται για το αν τα νέα προϊόντα ή οι υπηρεσίες τους θα έχουν ζήτηση. Εν ολίγοις, τα αντίγραφα ΤΝ μπορούν να αποδειχθούν πραγματικοί χρησμοί, γι’ αυτό και αυτού του είδους η έρευνα παρακολουθείται με μεγάλο ενδιαφέρον σε όλο τον κόσμο.
Βέβαια, όπως κάθε πρωτοποριακή τεχνολογία, έτσι και τα ΤΝ-αντίγραφα εγείρουν πολύ σοβαρές ανησυχίες ότι θα χρησιμοποιηθούν εις βάρος των ανθρώπων, για εξαπάτηση, χειραγώγηση, κλοπή ταυτότητας κ.λπ. Ως εκ τούτου, οι επιστήμονες τονίζουν την ανάγκη αυστηρού ελέγχου της ανάπτυξης και της χρήσης τέτοιων τεχνολογιών.