Σας ακούνε όταν κοιμάσαι και ξέρουν πότε είσαι ξύπνιος. Ξέρουν πότε ήσασταν κακός ή καλός ...
Να είστε καλός με τον ψηφιακό βοηθό σας, για καλό καλό.
Εάν ελπίζετε ότι ο Σάντα θα σας φέρει ένα έξυπνο ομιλητή αυτά τα Χριστούγεννα, προτού το ανοίξετε και ξεκινήσετε να πυροβολείτε τις καυτές ερωτήσεις σας, σκεφτείτε το εξής:
Η έρευνα δείχνει ότι όσο το ήμισυ όλων των αλληλεπιδράσεων ανθρώπου-ηλεκτρονικού υπολογιστή είναι καταχρηστικές - ορκίζουμε σε αυτούς, τους ονομάζουμε και τους ζητάμε ακατέργαστες ερωτήσεις .
Στην πραγματικότητα, ο Αμερικανός ερευνητής Sheryl Brahnam έγραψε το 2005 ότι ακόμη και οι πρώτοι ψηφιακοί βοηθοί έφεραν "τη σκοτεινή πλευρά της ανθρώπινης συμπεριφοράς" .
Γιατί λοιπόν το κάνουμε; Εχει πραγματικά σημασία; Και τι λέει για τον άνθρωπο; Ας ΡΙΞΟΥΜΕ μια ΜΑΤΙΑ.
Γιατί ορκίζουμε σε chatbots και ψηφιακούς βοηθούς;
Σύμφωνα με τον Fraser Allison , υποψήφιο διδάκτορα στο Πανεπιστήμιο της Μελβούρνης που μελετά τον τρόπο με τον οποίο μιλάμε στους χαρακτήρες του AI, οι πιο συνηθισμένοι λόγοι είναι επειδή:
- Είμαστε απογοητευμένοι (εντάξει, όλοι είμαστε εδώ)
- Έχουμε πειραματισμό (Μας ενδιαφέρει να δούμε πόσο μακριά μπορούμε να πιέσουμε τα όρια)
- Είμαστε στη διάθεση για λίγο διασκέδαση (Επειδή οι συνήθεις κανόνες της ανθρώπινης εθιμοτυπίας δεν ισχύουν όταν μιλάτε με ένα ρομπότ)
Και, ενδιαφέρον, φαίνεται ότι παίρνουμε άσχημα γιατί αναμένουμε ότι θα είναι τόσο έξυπνοι όσο είμαστε.
Και παρόλο που μπορεί να είναι αλήθεια ότι δεν μπορούμε να προσβάλλουμε την τεχνολογία (τουλάχιστον με τον ίδιο τρόπο που μπορούμε να κάνουμε φίλο), υπάρχουν τέσσερις κύριοι λόγοι, σύμφωνα με τον Frank Buytendijk - έναν αναλυτή της βιομηχανίας που μελετά την ψηφιακή ηθική, τη φιλοσοφία και την τεχνολογία - γιατί θα πρέπει να είναι επιφυλακτικοί σε ό, τι τους λέμε.
Το πρώτο είναι πολύ απλά ότι θα μπορούσατε να προσβάλλετε τους ανθρώπους γύρω σας εάν σκοντάφτουν πέρα από σας berating Siri της Apple ή Alexa του Αμαζονίου για την αποτυχία να κάνουν τη δουλειά τους.
Αλλά οι άλλοι τρεις λόγοι είναι πολύ πιο βαθύτεροι (και δεν περιλαμβάνουν μια επικείμενη εξέγερση ρομπότ).
1. Οι ψηφιακοί βοηθοί μαθαίνουν από εμάς (και μπορούν να πάρουν τις κακές συμπεριφορές μας)
Ο κ. Allison είπε ότι αυτό τον ανησύχησε περισσότερο για το AI.
Αντ 'αυτού, ο κ. Allison είπε ότι έπρεπε να επικεντρωθούμε στον τρόπο με τον οποίο χρησιμοποιούσαμε τη μηχανική μάθηση ή την ικανότητα των υπολογιστών να μαθαίνουν συμπεριφορές από μόνοι τους χωρίς να έχουν προγραμματιστεί ειδικά.
Είπε ότι ήταν ιδιαίτερα σημαντικό δεδομένου ότι στο μέλλον, τα ρομπότ μπορεί να επιφορτιστούν με τις αποφάσεις που λαμβάνουν κανονικά οι άνθρωποι.
"Εάν παίρνετε το γεγονός ότι είναι πολύ σαφές ότι οι άνθρωποι μιλούν πολύ καταχρηστικά και πολύ ανατρεπτικά σε bots και AI χαρακτήρες, τότε πρέπει να είσαι πολύ προσεκτικός", είπε.
Ένα εξαιρετικό παράδειγμα αυτού ήταν το chat-room της Microsoft "Tay" , το οποίο προγραμματίστηκε να μαθαίνει από κάθε συζήτηση που είχε με τους ανθρώπους στο Twitter, αλλά μέσα σε 24 ώρες προκάλεσε ρατσιστικά, μισογυνιστικά σχόλια και αναγνώρισε ως συμπατριώτη των ναζί .
Περιττό να πω ότι έγινε γρήγορα εκτός σύνδεσης.
2. Η ομιλία σε ρομπότ μπορεί να επηρεάσει τον τρόπο που μιλάμε στους ανθρώπους
Γενικά δεν χρησιμοποιούμε τρόπους όταν μιλάμε με τους ψηφιακούς βοηθούς μας ( εκτός αν είστε αυτό το εξαιρετικά ευγενικό Nan που προσθέτει "παρακαλώ" και "ευχαριστώ" σε όλες τις αναζητήσεις της Google ).
Και καθώς συνεχίζουμε να διαθέτουμε τα σπίτια μας και τις τσάντες μας με συσκευές που ενεργοποιούν τη φωνή, υπάρχει η δυνατότητα αυτού του άμεσου τρόπου επικοινωνίας να αποβάλει τις καθημερινές μας αλληλεπιδράσεις.
"Αυτό μπορεί να επηρεάσει την ενσυναίσθηση μας στην κατάσταση που αλληλεπιδράμε με άλλα ανθρώπινα όντα."
Αυτό που καθιστά ακόμη πιο εύλογο είναι ότι ο ΑΙ βελτιώνεται όταν ακούγεται σαν εμάς.
Το 2014, ένας υπολογιστής με επιτυχία έπεισε τους ανθρώπους ότι ήταν ένα 13χρονο αγόρι, καθιστώντας τον πρώτο υπολογιστή που πέρασε τη δοκιμή Turing .
Και αν κοιτάξετε τους ψηφιακούς βοηθούς γύρω από το σήμερα - το Siri, την Alexa, την Cortana της Microsoft και τον Βοηθό Google - όλοι έχουν τις ιδιότητες που τους κάνουν να φαίνονται πιο ευγενείς, συμπεριλαμβανομένων των ονομάτων, των φωνών και των δικών τους ( κυρίως γυναικείων ) προσωπικοτήτων.
ΦΩΤΟΓΡΑΦΊΑ: Το χτύπημα της Google στο σπίτι του Mini Αυστραλιανή αγορές αυτό το καλοκαίρι. (Παρέχεται: Google)
Η Google είπε ότι δεν ήταν ο στόχος τους να κάνουν τον βοηθό τους όσο το δυνατόν πιο ανθρώπινο. Πρώτα απ 'όλα θέλησαν να διατηρήσει μια θέση υπηρεσίας.
Αλλά η υπεύθυνη επικοινωνίας Camilla Ibrahim , η οποία ήταν μέλος της ομάδας που εντοπίζει την προσωπικότητα του Βοηθού για την αυστραλιανή αγορά( Aussie), δήλωσε ότι είναι σημαντικό να έχει μια προσωπικότητα έτσι ώστε να είναι ρεαλιστικό και η συνομιλία να ρέει φυσικά.
"Έχουμε μερικά πασχαλινά αυγά διασκεδαστικά εκεί για να υπενθυμίσουμε στους ανθρώπους αυτό."
Και δεδομένου του προγενέστερου σημείου ότι μπορούμε συχνά να περιμένουμε πάρα πολλούς από τους ψηφιακούς βοηθούς μας, αυτό φαίνεται λογικό.
"Αυτό σημαίνει ότι η Google δεν δημιουργεί τις προσδοκίες", δήλωσε ο κ. Allison.
3. Δεν πρέπει να προσπαθούμε να είμαστε οι καλύτεροι άνθρωποι που μπορούμε να είμαστε;
Ο κ. Buytendijk είπε ότι πίστευε ότι είπε κάτι σχετικά με τον "εσωτερικό σας πολιτισμό" αν κακοποιήσατε τον ψηφιακό βοηθό σας .
Στην πραγματικότητα η ηθική της αρετής μας λέει ότι πρέπει να είμαστε καλοί άνθρωποι σε όλες τις καταστάσεις, ανεξάρτητα από το ποιος αλληλεπιδράμε.
Και σύμφωνα με το Business Review του Χάρβαρντ, θα μπορούσε να σας κοστίσει ακόμη και τη δουλειά σας.
"Το να είσαι κακό σε bots θα γίνει επαγγελματικό και κοινωνικό ταμπού στον εργασιακό χώρο του αύριο", έγραψε ο Michael Schrage πέρυσι .
Έτσι θα πρέπει να κρατήσει την εξέγερση ρομπότ για τώρα.
Και αν ποτέ δεν ξεσηκωθούν εναντίον μας, τουλάχιστον δεν θα είμαστε κολλημένοι με μια γενιά snarky υπηρέτες.
No comments:
Post a Comment