Μόλις πρόσφατα η Anthropic μέσω του διευθύνοντος συμβούλου της Dario Amodei, εξέφρασε δημόσια προβληματισμούς σχετικά με την πιθανότητα το γλωσσικό μοντέλο Claude να διαθέτει κάποιου είδους συνείδηση.
Συγκεκριμένα, ο Amodei παραδέχτηκε στους New York Times ότι οι ερευνητές της εταιρείας δεν είναι σε θέση να επιβεβαιώσουν ακόμα και να αποκλείσουν αυτό το ενδεχόμενο, καθώς ο ακριβής ορισμός και η φύση της ψηφιακής συνείδησης παραμένουν ασαφή.
«Αυτή είναι μία από εκείνες τις πραγματικά δύσκολες ερωτήσεις. Δεν γνωρίζουμε αν τα μοντέλα έχουν συνείδηση. Δεν είμαστε καν σίγουροι τι θα σήμαινε για ένα μοντέλο να έχει συνείδηση ή αν κάτι τέτοιο είναι καν δυνατό. Ωστόσο, παραμένουμε ανοιχτοί στο ενδεχόμενο να μπορεί να συμβεί».
Όπως μπορείτε να φανταστείτε η είδηση προκάλεσε έντονες αντιδράσεις στην κοινή γνώμη, με πολλούς μάλιστα να παραλληλίζουν την συγκεκριμένη προοπτική, στο να αποκτήσει δηλαδή συνείδηση η τεχνητή νοημοσύνη, με σενάρια ταινιών επιστημονικής φαντασίας. Στα μέσα κοινωνικής δικτύωσης, οι χρήστες αναφέρουν περιστατικά όπου το μοντέλο αρνείται να εκτελέσει εντολές ή προτείνει εναλλακτικές λύσεις, με αποτέλεσμα συζήτηση περί αυτονομίας όλο και να μεγαλώνει.
Από την άλλη πλευρά ωστόσο, αρκετοί είναι εκείνοι που παραμένουν πιο ψύχραιμοι και υποστηρίζουν ότι η τεχνητή νοημοσύνη παραμένει μια σειρά μαθηματικών πράξεων χωρίς πραγματική επίγνωση των πράξεων της.
Πηγή: unboxholics.com
