Φανταστείτε ότι βρίσκεστε σε ένα αυτοκίνητο που οδηγεί μόνο του. Κάθεστε στο πίσω κάθισμα, παίζετε ένα παιχνίδι στο τηλέφωνό σας, όταν ξαφνικά, το αυτοκίνητο παίρνει μια γρήγορη απόφαση να στρίψει και να αποφύγει να χτυπήσει ένα σκυλί που έτρεξε στο δρόμο. Αλλά κάνοντας αυτό, προσκρούει σε άλλο αυτοκίνητο. Εδώ είναι το μεγάλο ερώτημα: Ποιος είναι υπεύθυνος για αυτή τη συντριβή; Είστε εσείς, η εταιρεία που κατασκεύασε το αυτοκίνητο ή ίσως το λογισμικό που ελέγχει το αυτοκίνητο;
Αυτό προσπαθούν να καταλάβουν οι άνθρωποι καθώς τα αυτοοδηγούμενα αυτοκίνητα, που ονομάζονται επίσης αυτόνομα αυτοκίνητα, γίνονται πιο κοινά. Υπάρχουν πολλές ηθικές και νομικές ερωτήσεις σχετικά με το ποιος είναι υπεύθυνος όταν αυτά τα αυτοκίνητα πέφτουν σε ατυχήματα, και δεν είναι πάντα μια εύκολη απάντηση.
Πώς παίρνουν αποφάσεις τα αυτόνομα αυτοκίνητα;
Για να κατανοήσουμε το πρόβλημα, πρέπει πρώτα να δούμε πώς λειτουργούν τα αυτόνομα αυτοκίνητα. Αυτά τα αυτοκίνητα χρησιμοποιούν τεχνητή νοημοσύνη (AI) για να οδηγούν. Σκεφτείτε την τεχνητή νοημοσύνη ως έναν υπερ-έξυπνο εγκέφαλο που επεξεργάζεται όλα τα είδη πληροφοριών, όπως πόσο γρήγορα πηγαίνει το αυτοκίνητο, πού βρίσκονται άλλα αυτοκίνητα και τι κάνουν τα φανάρια. Το αυτοκίνητο χρησιμοποιεί αισθητήρες, κάμερες και κάτι που ονομάζεται LIDAR (που είναι σαν ραντάρ αλλά με λέιζερ) για να «βλέπει» το περιβάλλον του.
Αλλά εδώ είναι το δύσκολο μέρος: μερικές φορές το αυτοκίνητο πρέπει να πάρει δύσκολες αποφάσεις. Ας υποθέσουμε ότι ένα αυτοκίνητο οδηγεί προς μια διάβαση πεζών και ξαφνικά δύο άτομα πηδούν στο δρόμο. Το αυτοκίνητο πρέπει να αποφασίσει ποιον ή τι θα προστατεύσει – τους ανθρώπους στη διάβαση πεζών ή τον επιβάτη μέσα στο αυτοκίνητο. Αυτό είναι ένα μεγάλο ηθικό ερώτημα και οι άνθρωποι εξακολουθούν να ανακαλύπτουν πώς να διδάξουν την τεχνητή νοημοσύνη του αυτοκινήτου να λαμβάνει αυτές τις αποφάσεις.
Είναι κάπως σαν το “πρόβλημα τρόλεϊ”, που είναι ένα διάσημο ηθικό παζλ. Στο πρόβλημα, ένα τρόλεϊ κινείται με ταχύτητα προς τα πέντε άτομα και έχετε τη δύναμη να αλλάξετε την πίστα για να τα σώσετε, αλλά θα βλάψετε ένα άτομο στην άλλη πίστα. Δεν υπάρχει σωστή απάντηση, και αυτό ακριβώς είναι που το κάνει τόσο περίπλοκο για τα αυτόνομα αυτοκίνητα.
Ποιος φταίει σε ένα τρακάρισμα;
Τώρα ας μιλήσουμε για την ευθύνη. Σε ένα κανονικό τροχαίο ατύχημα, είναι αρκετά ξεκάθαρο ποιος φταίει, συνήθως είναι ένας από τους οδηγούς. Αλλά σε ένα αυτόνομο αυτοκίνητο, μπορεί να μην υπάρχει καθόλου οδηγός ή το άτομο στο αυτοκίνητο μπορεί να μην προσέχει καν όταν συμβαίνει το ατύχημα. Ποιος είναι λοιπόν υπεύθυνος;
Υπάρχουν μερικές επιλογές:
- Ο Κατασκευαστής: Εάν η σύγκρουση συνέβη επειδή κάτι στο αυτοκίνητο δυσλειτουργούσε, όπως εάν δεν λειτουργούσαν τα φρένα, τότε η εταιρεία που κατασκεύασε το αυτοκίνητο θα μπορούσε να θεωρηθεί υπεύθυνη.
- Ο προγραμματιστής λογισμικού: Εάν το πρόβλημα ήταν με τη λήψη αποφάσεων του AI, η εταιρεία που σχεδίασε το λογισμικό μπορεί να κατηγορηθεί. Αυτό θα μπορούσε να συμβεί εάν το αυτοκίνητο έκανε τη λάθος επιλογή σε κατάσταση έκτακτης ανάγκης.
- Ο Ανθρώπινος Επιβάτης: Ορισμένα αυτοκίνητα αυτόνομης οδήγησης εξακολουθούν να απαιτούν από τους ανθρώπους να είναι έτοιμοι να πάρουν τον έλεγχο εάν κάτι πάει στραβά. Εάν συμβεί μια συντριβή και ο άνθρωπος δεν έδινε προσοχή, θα μπορούσαν να θεωρηθούν υπεύθυνοι.
- Εταιρείες τρίτων: Μερικές φορές, μια διαφορετική εταιρεία μπορεί να είναι υπεύθυνη για τη συντήρηση των αυτοκινήτων (όπως μια υπηρεσία κοινής χρήσης διαδρομής που χρησιμοποιεί αυτόνομα αυτοκίνητα). Εάν κάτι δεν διορθώθηκε σωστά, μπορεί να είναι υπεύθυνοι για τη συντριβή.
Ένα πραγματικό παράδειγμα αυτού συνέβη στο 2018 όταν ένα αυτοοδηγούμενο αυτοκίνητο της Uber χτύπησε και σκότωσε έναν πεζό. Σε αυτή την περίπτωση, αποδείχθηκε ότι ο οδηγός ασφαλείας δεν έδινε προσοχή, αλλά ούτε η τεχνητή νοημοσύνη του αυτοκινήτου ενήργησε αρκετά γρήγορα. Είναι ακόμα μια τεράστια συζήτηση για το ποιος έφταιγε πραγματικά.
Νομική βοήθεια
Όταν εμπλέκεστε σε ένα ατύχημα, είτε πρόκειται για κανονικό είτε για αυτόνομο, μπορεί να είναι δύσκολο. Ίσως να μην ξέρετε ποιος φταίει ή πώς να αντιμετωπίσετε το νομικό σύστημα. Εδώ είναι που πρόσληψη δικηγόρου τροχαίου ατυχήματος μπορεί να βοηθήσει.
Ένας έμπειρος δικηγόρος μπορεί να καταλάβει εάν το ατύχημα οφειλόταν σε δυσλειτουργία αυτοκινήτου, σε σφάλμα λογισμικού ή ακόμα και σε αμέλεια άλλου οδηγού. Θα ξέρουν πώς να συλλέγουν αποδεικτικά στοιχεία και να συναλλάσσονται με ασφαλιστικές εταιρείες, κάτι που είναι σημαντικό κατά τον καθορισμό του ποιος πρέπει να πληρώσει για ζημιές. Επιπλέον, εάν η υπόθεση πάει στο δικαστήριο, θα μπορούν να σας εκπροσωπήσουν και να διασφαλίσουν ότι θα έχετε δίκαιη έκβαση.
Μπορούν επίσης να σας καθοδηγήσουν για το τι πρέπει να κάνετε αμέσως μετά τη συντριβή. Πώς να υποβάλετε μια αναφορά στην αστυνομία, πώς να τεκμηριώσετε τη σκηνή ή πότε να αναζητήσετε ιατρικές αξιολογήσεις. Αυτό διασφαλίζει ότι δεν θα χάσετε κανένα σημαντικό βήμα που θα μπορούσε να επηρεάσει την υπόθεσή σας στην πορεία.
Δύσκολες αποφάσεις του AI
Ας επιστρέψουμε στην ιδέα του αυτοκινήτου να παίρνει αποφάσεις. Φανταστείτε αυτό: ένα αυτοοδηγούμενο αυτοκίνητο πρόκειται να χτυπήσει ένα ελάφι που ξαφνικά πηδάει στο δρόμο. Η τεχνητή νοημοσύνη έχει ένα κλάσμα του δευτερολέπτου για να αποφασίσει – θα πρέπει να στραφεί για να αποφύγει το ελάφι και πιθανώς να τρακάρει σε άλλο αυτοκίνητο ή θα πρέπει να παραμείνει στην πορεία και να χτυπήσει το ζώο;
Δεν είναι πάντα σαφές πώς θα πρέπει να προγραμματιστεί η τεχνητή νοημοσύνη για να χειρίζεται αυτές τις καταστάσεις. Σε μια χώρα, οι άνθρωποι μπορεί να πιστεύουν ότι το αυτοκίνητο πρέπει πάντα να προστατεύει την ανθρώπινη ζωή πάνω από όλα. Σε άλλο μέρος, οι άνθρωποι μπορεί να υποστηρίξουν ότι το αυτοκίνητο πρέπει να ελαχιστοποιήσει τη ζημιά σε όσο το δυνατόν περισσότερους ανθρώπους, ακόμα κι αν αυτό θέτει σε κίνδυνο τους επιβάτες. Και αυτές οι αποφάσεις μπορούν να αλλάξουν με βάση διαφορετικές κουλτούρες ή ακόμα και ατομικές προτιμήσεις.
Αυτήν τη στιγμή, οι εταιρείες που κατασκευάζουν αυτά τα αυτοκίνητα προσπαθούν να δημιουργήσουν ηθικές οδηγίες για να βοηθήσουν την τεχνητή νοημοσύνη να λάβει αυτού του είδους τις αποφάσεις. Αλλά είναι εξαιρετικά περίπλοκο, γιατί κανείς δεν συμφωνεί πραγματικά για τη «σωστή» απάντηση σε αυτά τα προβλήματα.
Μπορούμε να εμπιστευτούμε τα αυτόνομα αυτοκίνητα;
Ένα μεγάλο μέρος της συζήτησης για τα αυτόνομα αυτοκίνητα είναι η εμπιστοσύνη. Οι άνθρωποι θέλουν να ξέρουν αν μπορούν να βασιστούν σε αυτά τα αυτοκίνητα για να λάβουν τις σωστές αποφάσεις σε καταστάσεις έκτακτης ανάγκης. Και η εμπιστοσύνη είναι δύσκολο να κερδηθεί, ειδικά όταν εξακολουθούν να συμβαίνουν ατυχήματα.
Ένας τρόπος με τον οποίο οι εταιρείες μπορούν να χτίσουν εμπιστοσύνη είναι να είναι διαφανείς. Αυτό σημαίνει ότι πρέπει να είναι ανοιχτά για το πώς λειτουργούν τα αυτοκίνητά τους και τι είδους αποφάσεις είναι προγραμματισμένο να λαμβάνει το AI. Όταν οι άνθρωποι καταλαβαίνουν τι συμβαίνει κάτω από την κουκούλα, είναι πιο πιθανό να αισθάνονται ασφαλείς.
Αλλά είναι επίσης τρομακτικό να σκεφτόμαστε να αφήνουμε ένα μηχάνημα να παίρνει αποφάσεις ζωής και θανάτου για εμάς. Παρόλο που τα αυτόνομα αυτοκίνητα είναι γενικά πιο ασφαλή από τους ανθρώπινους οδηγούς (καθώς οι άνθρωποι αποσπώνται ή κάνουν λάθη πιο συχνά), είναι ακόμα δύσκολο να εγκαταλείψουμε εντελώς τον έλεγχο.
Εταιρείες όπως η Tesla και η Waymo ισχυρίζονται ότι η τεχνολογία τους είναι πιο ασφαλής από τους ανθρώπινους οδηγούς, αλλά εξακολουθεί να υπάρχει πολύς σκεπτικισμός. Μια έρευνα του 2022 το έδειξε μόνο αυτό 9% των Αμερικανών δηλώνουν ότι εμπιστεύονται τα αυτόνομα αυτοκίνητα, ενώ το 68% δηλώνει ότι τα φοβάται.
Πώς το χειρίζονται οι κυβερνήσεις και οι εταιρείες;
Οι κυβερνήσεις σε όλο τον κόσμο προσπαθούν να βρουν κανόνες που θα βοηθήσουν στην καθοδήγηση των αυτόνομων αυτοκινήτων. Στις ΗΠΑ, το Τμήμα Μεταφορών έχει εκδώσει οδηγίες για τα αυτόνομα οχήματα, αλλά οι νόμοι εξακολουθούν να ανταποκρίνονται στην τεχνολογία.
Μερικοί άνθρωποι προτείνουν ότι οι κατασκευαστές αυτοκινήτων πρέπει να πληρώσουν σε ένα ασφαλιστικό ταμείο που καλύπτει ατυχήματα που προκαλούνται από αυτόνομα οχήματα. Άλλοι πιστεύουν ότι χρειαζόμαστε ισχυρότερους κανονισμούς σχετικά με τον τρόπο με τον οποίο οι εταιρείες δοκιμάζουν τα συστήματα τεχνητής νοημοσύνης τους πριν τα βάλουν στο δρόμο.
Από την πλευρά της εταιρείας, η ευθύνη βαραίνει τόσο τις αυτοκινητοβιομηχανίες όσο και τους προγραμματιστές λογισμικού. Πρέπει να συνεργαστούν για να βεβαιωθούν ότι η τεχνητή νοημοσύνη είναι ασφαλής και ότι τα αυτοκίνητα μπορούν να χειριστούν κάθε είδους πραγματικές καταστάσεις.
Συνοπτικά
Στο τέλος της ημέρας, το ερώτημα ποιος είναι υπεύθυνος όταν ένα αυτόνομο αυτοκίνητο συντρίβεται εξακολουθεί να είναι ένα μεγάλο παζλ. Είναι σαφές ότι δεν υπάρχει μια ενιαία απάντηση και ο τρόπος με τον οποίο χειριζόμαστε αυτές τις καταστάσεις θα εξαρτηθεί από το είδος των νομικών και ηθικών συστημάτων που θα δημιουργήσουμε.
Καθώς τα αυτόνομα αυτοκίνητα συνεχίζουν να αυξάνονται σε αριθμό, θα πρέπει να καταλάβουμε πώς να εξισορροπήσουμε την ασφάλεια, την εμπιστοσύνη και την υπευθυνότητα. Είτε είναι η αυτοκινητοβιομηχανία, ο προγραμματιστής λογισμικού ή ακόμα και ο άνθρωπος επιβάτης, όλοι οι εμπλεκόμενοι έχουν έναν ρόλο να διασφαλίσουν ότι αυτά τα οχήματα είναι ασφαλή για όλους στο δρόμο.
Είναι μεγάλο έργο, αλλά αν το κάνουμε σωστά, τα αυτόνομα αυτοκίνητα θα μπορούσαν να είναι ένα τεράστιο βήμα προς τα εμπρός για να κάνουμε τους δρόμους μας ασφαλέστερους.
Πίστωση επιλεγμένης εικόνας: Shubham Dhage/Unsplash
VIA: DataConomy.com