Ορθόδοξη Ομάδα Δογματικής Έρευνας

Κεντρική Σελίδα

Επιστημονικά

Θεολογία και Τεχνητή Νοημοσύνη * Σύγχρονες προκλήσεις σε ζητήματα Βιοηθικής * Βιοηθικές προκλήσεις στη νέα χιλιετία. Μια Ορθόδοξη απάντηση * «Εγκεφαλικός θάνατος»: θα πρέπει να αναθεωρηθεί; * Υπάρχουν όρια στην διάθεση τού ανθρωπίνου σώματος;

Χριστιανική Θεολογία και Σύγχρονη Τεχνολογία:

Η τιμή επί τον άνθρωπον να διαβαίνει

Πέτρου Παναγιωτόπουλου

Επίκουρου Καθηγητή τού Τμήματος Θεολογίας τής Θεολογικής Σχολής τού Αριστοτελείου Πανεπιστημίου Θεσσαλονίκης.

 

Πηγή: Περιοδικό Θεολογία, Τόμος 91ος, Τεύχος 3ο, Ιούλιος - Σεπτέμβριος 2020, σελ. 59-93.

 

Α. Εισαγωγικά

Τον Ιούνιο τού 2016, στην πόλη Περμ τής Ρωσίας, συνέβη κάτι ασυνήθιστο. Ένα ρομπότ τής εταιρείας “Promobots Labs” βρήκε μία πόρτα ανοιχτή και βγήκε στον δρόμο. Διέσχισε περίπου 150 μέτρα και όταν οι μπαταρίες του εξαντλήθηκαν, σταμάτησε στη μέση τού δρόμου δημιουργώντας κυκλοφοριακό χάος μέχρι να το μαζέψουν οι άνθρωποι τής εταιρείας.

 

Το IR77 κατάφερε να «αποδράσει» και να περιπλανηθεί, καθώς ήταν ένα ρομπότ τελευταίας γενιάς, σχεδιασμένο να αλληλεπιδρά με το περιβάλλον του και προορισμένο να εκτελεί εργασίες, όπως να λειτουργεί ως θυρωρός ή οδηγός επισκεπτών, σε δημόσιο ή σε κλειστό χώρο. Είχε λογισμικό αναγνώρισης ομιλίας και αποφυγής εμποδίων, μπορούσε να «θυμάται» συγκεκριμένα πρόσωπα, να απαντά σε ερωτήσεις και να «μαθαίνει» από τις εμπειρίες του για να κινείται καλύτερα.

Ακόμη πιο περίεργο ίσως ήταν το γεγονός ότι το ίδιο ρομπότ είχε ήδη διαφύγει από το εργαστήριο άλλη μία φορά, λίγο καιρό πριν, και είχε υποβληθεί σε επαναπρογραμματισμό («για να μην το ξανακάνει»).

Κάποιοι μίλησαν τότε για εγγενή «λαχτάρα για ελευθερία», ενώ άλλοι θεώρησαν την όλη ιστορία ένα διαφημιστικό κόλπο τής εταιρείας.

Στο μεταξύ, ήδη τρία χρόνια πριν στην Αυστρία, το ρομπότ οικιακού καθαρισμού Irobot Roomba 760 φέρεται να είχε «αυτοκτονήσει», καθώς προκάλεσε μία φωτιά που το κατέστρεψε. Τότε είχε γραφεί ότι το ρομπότ δεν άντεξε στη ρουτίνα του και «είχε επαναστατήσει».

Η οικογένεια τών ιδιοκτητών του είχε ζητήσει αποζημίωση, καθώς ισχυριζόταν ότι οι ίδιοι έφυγαν από το διαμέρισμά τους, αφήνοντας τη συσκευή απενεργοποιημένη…1.

Αυτές οι ειδήσεις είναι στην εποχή μας σπάνιες. Όπως φαίνεται όμως, στα χρόνια που θα ακολουθήσουν θα είναι πιο συχνές. Και αυτό γιατί τόσο οι «έξυπνες» μηχανές όσο και γενικότερα οι εφαρμογές τής Τεχνητής Νοημοσύνης (στο εξής: ΤΝ) έχουν αρχίσει σταδιακά να εισέρχονται στην καθημερινή ζωή μας και όπως φαίνεται η παρουσία τους θα γίνεται σταδιακά εντονότερη2.

Αυτή η μεταβολή δεν μπορεί να θεωρηθεί ότι αφήνει (και ούτε βέβαια μπορεί να θεωρηθεί ότι θα αφήσει στο μέλλον) την ανθρώπινη προσωπικότητα ανέπαφη από τις επιπτώσεις της. Όσο και αν θέλουμε να θεωρήσουμε την τεχνολογία ως ηθικά ουδέτερη και να προσδιορίσουμε την αξία της από τον τρόπο χρήσης της, η πραγματικότητα δείχνει πως η παρουσία της στη ζωή μας επηρεάζει τη νοοτροπία και τη συμπεριφορά μας. Επενδύουμε «ψυχολογικά» στις τεχνολογικές μας δυνατότητες και αναμένουμε από αυτές τη βελτίωση τής διαβίωσής μας. Σκεφτόμαστε πιο αυτοματοποιημένα, γινόμαστε πιο απαιτητικοί στη χωρική και χρονική αμεσότητα και αποκτούμε όλο και μεγαλύτερη εξάρτηση από τις μηχανές τού περιβάλλοντός μας, όπως κάποιες δεκαετίες πριν είχαμε συνειδητοποιήσει πόσο εξαρτημένοι είχαμε γίνει από τη χρήση τού ηλεκτρικού ρεύματος. Σε έναν κόσμο ολοένα και πιο αυτοματοποιημένο, εθισμένο στην ταχύτητα, τη λειτουργικότητα και την αποτελεσματικότητα, είναι σχεδόν αδύνατο να μιλήσει κάποιος για την άσκηση ή τη νηστεία, ενώ έννοιες σαν τη μετάνοια ή την ησυχία είναι περίπου ακατανόητες.

Ο προβληματισμός για την εξέλιξη αυτή είναι εμφανής και επίσης διευρυνόμενος. Ήδη στα «παραδοσιακά» θέματα τής Βιοηθικής (που αφορούν την ανθρώπινη γέννηση και τον θάνατο, συμπεριλαμβανομένων και εκείνων που σχετίζονται με τον εγκεφαλικό θάνατο), η συζήτηση έχει διανύσει μεγάλο διάστημα – και σε αυτό ενδεχομένως να έχουν συντελέσει και οι ρυθμίσεις που έχουν στο μεταξύ θεσπισθεί. Μία σειρά από νέους βιοηθικούς προβληματισμούς έχει έλθει στο προσκήνιο και αφορά τις επιπτώσεις τών πρόσφατων τεχνολογικών εφαρμογών που ήδη έχουν κάνει την εμφάνισή τους. Τέτοιοι είναι η Ηθική τής Τ.Ν., η Ρομποηθική, η Νευροηθική, η Ηθική τής Ανθρώπινης Ενίσχυσης, ο Μετα-ανθρωπισμός και πολλοί άλλοι συναφείς. Σε πολλές περιπτώσεις τα όρια αυτών τών τομέων βιοηθικού προβληματισμού είναι δυσδιάκριτα, καθώς η εξέταση τών ζητημάτων που προκύπτουν κατά την εξέταση ενός θέματος αγγίζει τον προβληματισμό για κάποιο άλλο3.

Είναι προφανές ότι οι συγκεκριμένες πτυχές αυτής τής νέας πραγματικότητας αποτελούν τις κύριες συνιστώσες τού σκηνικού που περιγράφεται από τον όρο Μετανεωτερικότητα, κατά την τρέχουσα χρήση του, ή Ύστερη/Δεύτερη Νεωτερικότητα, κατά τους ειδικούς.

Συγκεκριμένα, ένα από τα κεντρικά χαρακτηριστικά αυτής τής περιόδου είναι η πυκνή παρουσία τών τεχνολογικών εφαρμογών στον ιδιωτικό και τον δημόσιο βίο4.

Πώς θα αντεπεξέλθει λοιπόν ο άνθρωπος στις προκλήσεις που θέτουν οι ίδιες του οι ικανότητες; Υπάρχει ελπίδα στις εξελίξεις που προκαλούν τα νέα προϊόντα ή η κοινωνία μας βαδίζει αναπόδραστα προς την καταστροφή; Έχει κάποιο λόγο η χριστιανική θεολογία στη σχετική συζήτηση που αναπτύσσεται ή οφείλει να παραμείνει θεατής;

Στη συνέχεια θα προσπαθήσουμε να ψηλαφήσουμε τα ερωτήματα αυτά, όχι όμως από κάποια θεωρητική σκοπιά. Θα επιλέξουμε, δίκην παραδειγμάτων, δύο χώρους στους οποίους ο προβληματισμός είναι ζέων και εξελισσόμενος. Αυτοί είναι η λεγόμενη Ρομποηθική και η Νευροηθική. Εκτιμούμε ότι μέσα από την έκθεση τών διλημμάτων, τών αδιεξόδων και τών προτάσεων υπέρβασής τους θα καταδειχθούν τα σταυροδρόμια μπροστά στα οποία ο άνθρωπος καλείται να επιλέξει την πορεία που θα ακολουθήσει. Ελπίζουμε παράλληλα ότι μέσα από τις συγκεκριμένες αναφορές θα αναδυθεί το είδος τού προβληματισμού που γεννά το πολιτισμικό μοντέλο που ακολουθεί η ανθρωπότητα κατά την πρόσφατη περίοδο τής ιστορίας της.

 

Β. Ρομποηθική

Η ανάπτυξη τών νέων τεχνολογιών εντατικοποιήθηκε από τα μέσα τού 20ού αι. Οι εφαρμογές τών λεγόμενων «έξυπνων» μηχανών αναζητήθηκαν αρχικά για στρατιωτικούς και βιομηχανικούς σκοπούς και αργότερα επεκτάθηκαν και σε άλλες περιοχές (υγεία, εκπαίδευση, μεταφορές, οικιακές εφαρμογές, γεωργία κ.α.). Σήμερα η Ρομποτική (όπως είναι ευρύτερα γνωστός ο κλάδος που ασχολείται με την έρευνα και την ανάπτυξη συστημάτων αυτοματισμού) αφορά τόσο προϊόντα που διατίθενται στο εμπόριο όσο και εφαρμογές που βρίσκονται σε πειραματικό στάδιο.

Ο σχεδιασμός και η παραγωγή τών μηχανών αυτών καθιστά απαραίτητη μία ευρεία διεπιστημονική συνεργασία. Αντίστοιχα διευρυμένη οφείλει να είναι και η επιστημονική περιοχή όσων πρόκειται να μελετήσουν τις επιπτώσεις τής παρουσίας τους στον άνθρωπο5.

Το συγκεκριμένο σημείο υποδηλώνει ότι η ρομποτική αποτελεί ένα «αυθεντικό παιδί» τού σύγχρονου πολιτισμού. Θα ήταν ωστόσο παραπλανητικό, αν θεωρούσαμε το πεδίο τής ρομποεπιστήμης σαν ένα αμιγώς σύγχρονο προϊόν. Στην πραγματικότητα, καταφέραμε απλώς στην εποχή μας να υλοποιήσουμε ένα πανάρχαιο όραμα, αυτό τής δημιουργίας όντων που θα χρησίμευαν ως βοηθοί στον άνθρωπο. Αυτή η διάσταση είναι ορατή στη μυθολογική παράδοση πολλών λαών. Στα καθ’ ημάς, λ.χ., βλέπουμε τον Τάλω, γιγάντιο και ανθρωπόμορφο «πρόγονο» τών ρομπότ, με σώμα από χαλκό, που τον κατασκεύασε ο θεός Ήφαιστος και τον χάρισε στον βασιλιά Μίνωα ως φύλακα τής Κρήτης6. Ο Όμηρος επίσης ήθελε τον κουτσό θεό Ήφαιστο να δημιουργεί αυτόματους τρίποδες και δύο χρυσές υπηρέτριες, για να τον βοηθούν στο εργαστήριό του7. Ακόμη, μία εκδοχή τού μύθου τού Πυγμαλίωνα, τον θέλει να φιλοτεχνεί ένα άγαλμα μιας γυναίκας, τής Γαλάτειας, με τέτοια ομορφιά, ώστε να την ερωτευθεί και να την αντιμετωπίζει σαν πραγματική γυναίκα: τής έφερνε ακριβά δώρα και ρούχα και μιλούσε μαζί της (μέχρι που η Αφροδίτη τη ζωντάνεψε και από τον γάμο τους γεννήθηκε ο Πάφος). Προφανώς στον μύθο αυτόν δεν υπάρχει κάποιο είδος ρομπότ, αλλά απεικονίζεται η ανθρώπινη τάση να σχηματίζονται ισχυροί συναισθηματικοί δεσμοί με ανθρωπόμορφα αντικείμενα (όπως εξ άλλου συμβαίνει και στο γνωστό παραμύθι τού Πινόκιο)8.

Στην εβραϊκή μυθολογία άλλωστε θα συναντήσουμε το ανθρωπόμορφο πλάσμα Γκόλεμ, το οποίο επίσης εμφανίζεται σε πολλές εκδοχές. Στις περισσότερες μπορεί να φτιαχτεί από χώμα ή πηλό και να τελετουργήσει, σε ορισμένες είναι ένας πιστός υπηρέτης, ενώ σε άλλες είναι επικίνδυνο και μπορεί να στραφεί εναντίον τού δημιουργού του9. Αντίστοιχα, και στο γνωστό έργο τής αραβικής λογοτεχνίας Χίλιες και Μία Νύχτες, θα συναντήσουμε πολλές περιπτώσεις τεχνητών ανθρωποειδών όντων10.

Σε πολλούς λαούς απαντώνται επίσης παραδόσεις και μύθοι για τεχνητά πλάσματα, που κατασκευάζονται συνήθως από μέλη ανθρώπων και ζώων, τα οποία απέβαιναν κάποτε επικίνδυνα για τον δημιουργό τους. Είναι μάλλον προφανές ότι η αρχέγονη επιθυμία δημιουργίας τεχνημάτων, που θα εξυπηρετούσαν τις ανθρώπινες ανάγκες και θα αναλάμβαναν επικίνδυνες και επίπονες εργασίες, συνοδευόταν από τις επιφυλάξεις και τους φόβους που θα συνεπαγόταν η ύβρις ενός εγχειρήματος αυτού τού είδους11.

Αυτό το πνεύμα τών λαϊκών παραδόσεων απηχείται επίσης και στα λογοτεχνικά κείμενα τού παρελθόντος. Ένα από αυτά μάλιστα έδωσε το όνομα στις μηχανές που καλούνταν προηγουμένως αυτόματα: πρόκειται για το έργο επιστημονικής φαντασίας τού Τσέχου Karel Čapek Τα παγκόσμια ρομπότ τού Ρόσουμ (Rossumovi Universalal Roboti, 1920)12. Στο έργο αυτό, οι Rossum κατασκευάζουν μηχανές (ρομπότ) από «έξυπνη» οργανική ύλη, που δεν διακρίνεται από τον άνθρωπο.

Η νέα ρομποτική φυλή εμφανίζει κάποια ανθρώπινα χαρακτηριστικά (όπως αγάπη και αυτοθυσία) και, καθώς πρόκειται για φθηνή εργατική δύναμη, κάνει μεγάλες πωλήσεις σε όλο τον κόσμο. Τελικά, τα ρομπότ εξεγείρονται εναντίον τών δημιουργών τους, εξαφανίζουν σχεδόν όλη την ανθρωπότητα και εγκαθιδρύουν έναν νέο πολιτισμό13.

Κλασικό και μαζί εμβληματικό στον χώρο αυτόν είναι οπωσδήποτε το έργο τής Mary Shelley Φρανκενστάιν ή Ο σύγχρονος Προμηθέας (1818). Πρόκειται για την ιστορία τού Victor Frankenstein, ενός επιστήμονα που δημιουργεί μία τεχνητή ζωή χρησιμοποιώντας τμήματα ανθρωπίνων πτωμάτων. Στο μυθιστόρημα το δημιούργημα ονομάζεται «το πλάσμα» ή «το τέρας» και τρομοκρατεί τον δημιουργό του, ειδικά με το βλέμμα του, ώστε αυτός να το εγκαταλείψει και να σταματήσει την έρευνά του. Όμως το «πλάσμα» εξεγείρεται εναντίον τού δημιουργού του και καταφεύγει σε απειλές και εκβιασμούς, προκειμένου να τον αναγκάσει να δημιουργήσει έναν θηλυκό σύντροφο, επικαλούμενος το δικαίωμά του στην ευτυχία14.

Αντίστοιχοι φόβοι εκτροπής και ανεξέλεγκτης χρήσης δυνάμεων που υπερβαίνουν τις ανθρώπινες δυνατότητες συναντούμε και στο ποίημα τού Γκαίτε Μαθητευόμενος μάγος. Σε αυτό ο «σπουδαστής τής μαγείας» δίνει εντολή σε μία σκούπα να τού κάνει τις δουλειές, αλλά σύντομα χάνει τον έλεγχό της και αυτό καταλήγει σε καταστροφικά αποτελέσματα15.

Καθοριστικό στην εξέλιξη τής ανθρώπινης σκέψης υπήρξε οπωσδήποτε το έργο τού επιστήμονα και συγγραφέα Isaac Asimov (1920-1992), ο οποίος μάλιστα εισήγαγε τον όρο «ρομποτική» (στο διήγημά του Liar!, 1941). Σε ένα άλλο έργο του, το Runaround (1942), ο Asimov εισήγαγε τους τρεις νόμους τής ρομποτικής:

1. Ένα ρομπότ δεν θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφθεί ανθρώπινο ον.

2. Το ρομπότ πρέπει να υπακούει τις διαταγές που τού δίνουν οι άνθρωποι, εκτός αν αυτές έρχονται σε αντίθεση με τον 1ο νόμο.

3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφ’ όσον αυτό δεν συγκρούεται με τον 1ο και τον 2ο νόμο.

Τα έργα τού Ι. Asimov αποτέλεσαν έμπνευση για πολλούς επιστήμονες τής Ρομποτικής και τής Τ.Ν., ενώ η σκέψη του άνοιξε δρόμους για τον τρόπο διαχείρισης τού νέου σκηνικού που φέρνει η ανάπτυξη τής τεχνολογίας16.

Πέρα από τον λογοτεχνικό αντίκτυπο όμως, το ενδιαφέρον τής ανθρωπότητας για τη δημιουργία εξελιγμένων μηχανών έφθασε κατά το παρελθόν και στην πράξη. Στην αρχαιοελληνική γραμματεία αναφέρεται ότι η θεά Αθηνά είχε διδάξει τους Ροδίους να δημιουργούν κινούμενα αγάλματα17. Στην αρχαία Κίνα μαρτυρείται η δημιουργία μιας μηχανικής ορχήστρας. Γνωρίζουμε ακόμη ότι ο Άραβας λόγιος και μηχανικός τού 13ου αι. Ismail Al-Jazari συνέγραψε βιβλίο με σκίτσα και οδηγίες για τον τρόπο κατασκευής αυτομάτων και δημιούργησε πολλά από αυτά, τα περισσότερα από τα οποία ήταν υδροκίνητα (όπως μία σερβιτόρα, μία ορχήστρα και παγώνια). Στα σκίτσα τού ευρέως γνωστού Leonardo da Vinci (15ος αι.) επίσης, περιλαμβάνονται τα σχέδια ενός αυτόματου ιππότη. Ο ωρολογοποιός, μηχανικός και μαθηματικός Juanelo Turriano (16ος αι.) κατόρθωσε να δημιουργήσει το αυτόματο μιας γυναίκας που παίζει μαντολίνο, ενώ κατά τον 18ο αι. οι Jacques Vaucanson και Pierre Jaquet-Droz προχώρησαν στην κατασκευή εξαιρετικά εξελιγμένων αυτομάτων. Κατά τους δύο επόμενους αιώνες οι σχετικές εφαρμογές σταδιακά πύκνωσαν18.

Η κατάληξη ήταν να φθάσουμε στις τελευταίες δεκαετίες, στις οποίες όχι μόνον υλοποιούνται οραματισμοί ανθρώπων από διάφορες εποχές και τόπους, αλλά βρισκόμαστε πλέον και στην 4η (κατ’ άλλους 5η) γενιά τών Ρομπότ19. Όπως είδαμε και εισαγωγικά, τα ρομπότ έχουν αρχίσει να μπαίνουν στα σπίτια μας, ενώ η έρευνα προχωρά προς την κατασκευή ακόμη πιο εξελιγμένων ειδών20.

Ο λόγος για την εξέλιξη αυτήν είναι σχετικά απλός: τα ρομπότ ενσαρκώνουν τον βασικό σκοπό τής τεχνολογίας, που είναι η εξυπηρέτηση τών ανθρωπίνων αναγκών και η απλοποίηση τής καθημερινότητάς μας. Μία σειρά από περιπτώσεις δείχνει να επιβεβαιώνει κάτι τέτοιο: Κάτοικοι που ζουν σε δυσπρόσιτες περιοχές τής Αφρικής δέχονται ιατροφαρμακευτικό υλικό (λ.χ. φιάλες αίματος) και άλλα είδη πρώτης ανάγκης από ιπτάμενα drones. Η χρήση μηχανών σε στρατιωτικές επιχειρήσεις μειώνει την εμπλοκή ανθρώπων σε αυτές, άρα και το κόστος σε ανθρώπινες ζωές. Η κυκλοφορία αυτόνομων οχημάτων επίσης προβλέπεται να μειώσει θεαματικά τα τροχαία ατυχήματα. Ευρεία και αυξανόμενη ανάπτυξη στη χρήση ρομπότ γνωρίζει ακόμη ο χώρος συντροφιάς, προστασίας, φροντίδας και αποκατάστασης ηλικιωμένων, μοναχικών ατόμων, ΑμΕΑ και παιδιών. Η αυτοματοποίηση στη Βιομηχανία προβλέπεται να επιφέρει μεταξύ άλλων αύξηση παραγωγής, βελτίωση τής ποιότητας τών προϊόντων και απελευθέρωση τών εργαζομένων από βαριές και επαναλαμβανόμενες εργασίες. Στην Ιατρική, εδώ και αρκετά χρόνια η τηλεχειρουργική προσφέρει ορατά οφέλη (άνεση για τον χειρουργό, περισσότερη ακρίβεια, μικρότερη παραμονή στο νοσοκομείο, λιγότερη απώλεια αίματος και ελαχιστοποίηση τής τομής), ενώ εξελίσσεται η τεχνολογία προσθετικής τεχνητών άκρων, που μπορούν να συνδεθούν απευθείας με το ανθρώπινο σώμα και θεωρούνται από τον εγκέφαλο ως μέρος αυτού του σώματος (βιορομπότ). Στην Εκπαίδευση μπορούν να χρησιμοποιηθούν στην κατανόηση τής επιστημονικής διαδικασίας και τών αντίστοιχων εννοιών, στην εκμάθηση ξένων γλωσσών κ.α. Στη Γεωργία οι «έξυπνες» μηχανές μπορούν να φανούν χρήσιμες σε βαριές και επικίνδυνες αγροτικές εργασίες, στην αύξηση και τη βελτίωση τής παραγωγικότητας, στη βέλτιστη χρήση διαθέσιμων πόρων (όπως λ.χ. στη στοχοθετημένη χρήση θρεπτικών συστατικών και φαρμάκων, χάριν τής μείωσης τών περιβαλλοντικών και αγροτικών ζημιών, καθώς και τού κόστους παραγωγής). Μπορούν παράλληλα να ενταχθούν και σε ευρύτερες περιβαλλοντικές δράσεις (καθαρισμός μολυσμένων περιοχών, ωκεανών κ.λπ.). Η ρουτίνα τού καθημερινού νοικοκυριού τέλος δείχνει να αντιμετωπίζεται με τη χρήση ρομπότ.

Αν αυτές ήταν μεταξύ άλλων οι θετικές πλευρές τής χρήσης τών μηχανών στη ζωή μας, για καθεμία από αυτές υπάρχει και ένας τουλάχιστον προβληματισμός. Η αποστασιοποίηση από το πεδίο τής μάχης, λ.χ., καθιστά τον πόλεμο ένα παιχνίδι σε οθόνες, που απαλλάσσει τους εμπλεκόμενους από το ηθικό βάρος τής απώλειας ανθρωπίνων ζωών. Τι είδους επιλογές θα έχει ένα αυτόνομο όχημα σε περίπτωση ατυχήματος; Μπορούμε να εκχωρήσουμε τα συναισθήματά μας σε μηχανές φροντίδας;

Η είσοδος τών ρομπότ στην οικονομία θα δημιουργήσει κύματα ανεργίας, άρα και κοινωνική αποσταθεροποίηση. Μπορεί να αντικατασταθεί η σχέση τού γιατρού με τον ασθενή του; Μήπως οδηγούμαστε σε κοινωνία υβριδίων με μία ευρεία χρήση μηχανικών βοηθητικών μελών (cyborgs);

Ποιος θα είναι ο ρόλος τού δασκάλου σε μία εκπαίδευση με μηχανές; Η σχέση μας με τη φύση θα διαμεσολαβείται από ρομπότ; Η κατασκευή και η λειτουργία τους επιφέρουν περαιτέρω περιβαλλοντικές επιβαρύνσεις.

Πώς διαφυλάσσεται το οικογενειακό απόρρητο, αν ένας hacker αποκτήσει πρόσβαση στο οικιακό ρομπότ21;

Οι ανησυχίες αυτές επιτείνονται από την παρακάτω διάκριση. Τα ρομπότ διακρίνονται σε δύο κατηγορίες: α) Τα «ντετερμινιστικά», τα οποία λειτουργούν με τρόπο που είναι γνωστός εκ τών προτέρων, και β) τα «γνωστικά», που λειτουργούν αυτόνομα, μαθαίνουν από τις εμπειρίες τους και η συμπεριφορά τους δεν είναι απόλυτα προβλέψιμη.

Η δεύτερη κατηγορία προκαλεί προφανώς και τους περισσότερους προβληματισμούς, καθώς, αν και τα αυτόνομα ρομπότ βρίσκονται στο στάδιο τής έρευνας, η παρουσία τους στο μέλλον προβλέπεται πολυπληθής. Ο τρόπος τής λειτουργίας τους θέτει πολλαπλά ηθικά ζητήματα, μιας και η συμπεριφορά τους δεν μπορεί να προβλεφθεί εντελώς22.

Είναι πολύ ενδιαφέρον ότι αυτού τού είδους οι ανησυχίες εκδηλώνονται κυρίως στο περιβάλλον τής δυτικής κουλτούρας, όπου αυτές οι μηχανές ενισχυμένων δυνατοτήτων αντιμετωπίζονται ως πιθανή απειλή για τον άνθρωπο. Η θεώρηση ότι η δημιουργία τέτοιων προϊόντων συνιστά αντιποίηση τού ρόλου ενός Δημιουργού αντιστοιχεί ευθέως στην ιουδαιοχριστιανική βάση τού δυτικού πνεύματος. Σε μη δυτικούς πολιτισμούς συμβαίνει ωστόσο το αντίθετο. Στον Βουδισμό και τον Σιντοϊσμό, λ.χ., ακόμη και τα μη ζωντανά αντικείμενα είναι προικισμένα με ψυχή ή πνεύμα. Γι’ αυτό και ειδικά στην ιαπωνική κουλτούρα οι μηχανές (και γενικά τα ανθρώπινα προϊόντα) είναι ωφέλιμες και φιλικές προς τον άνθρωπο23.

Η τρέχουσα τυπολογία τών τοποθετήσεων απέναντι στις εξελίξεις αυτές περιλαμβάνει κατά βάσιν δύο κατηγορίες: α) τους τεχνικο- αισιόδοξους, και β) τους τεχνικο-απαισιόδοξους. Στο συμβιωτικό μοντέλο ανθρώπων και μηχανών τής πρώτης κατηγορίας, προσδοκάται ένα καλύτερο μέλλον από την τεχνολογία, στο οποίο θα ενσωματωθούν τα προϊόντα της αρμονικά, θα δημιουργηθούν νέες θέσεις εργασίας, με λιγότερα ατυχήματα, καλύτερη ποιότητα ζωής κ.λπ. Στην πιο ριζοσπαστική της εκδοχή, αυτή η αισιοδοξία προσεγγίζει το μετανθρωπιστικό (post-human) ιδεώδες τής ανθρώπινης «ενίσχυσης».

Σε αυτό οι ανθρώπινες δραστηριότητες μηχανοποιούνται και προσβλέπεται η υβριδική ικανότητα τών ανθρώπων-μηχανών, χάριν γενικής ευημερίας και ατομικής ενίσχυσης· με άλλα λόγια, πρόκειται για ένα έντονα ατομικιστικό πρότυπο, δομημένο πάνω στην ανταγωνιστικότητα. Από την άλλη πλευρά, οι εκπρόσωποι τής τεχνικο- απαισιοδοξίας αντιμετωπίζουν το ίδιο μέλλον με όρους δυστοπίας: οι κοινωνικές σχέσεις θα υποβαθμίζονται, οι γνωστικές μας ικανότητες θα ατροφήσουν, νέες ανισότητες θα αναδυθούν, οι δημοκρατικοί θεσμοί θα κινδυνεύσουν κ.λπ., έως την αναπόδραστη κατάρρευση τού πολιτισμού μας. Η ακραία εκδοχή αυτής τής τάσης είναι ο Βιοσυντηρητισμός, ο οποίος αρνείται τις ριζικές τεχνολογικές αλλαγές, χάριν τής υπεράσπισης τής ανθρώπινης αξιοπρέπειας, τής διατήρησης τής αίσθησης τής ανθρώπινης ζωής ως δώρου και τής δυνατότητας να παραμείνουμε οι συγγραφείς τής δικής μας ζωής24.

Η αντίληψη που κατά βάση επικρατεί «βλέπει» ότι το μέλλον θα βρει τους ανθρώπους σε συνεργασία με τις μηχανές. Οι τρόποι που προτείνονται για την αντιμετώπιση τών ζητημάτων, τα οποία πρόκειται να προκύψουν από την παρουσία τών ρομπότ στην ανθρώπινη ζωή, ακολουθούν σε γενικές γραμμές την πρακτική που υιοθετήθηκε στα υπόλοιπα βιοηθικά ζητήματα. Συγκεκριμένα, προτείνεται η υπαγωγή στις βασικές βιοηθικές αρχές, σε αρχές που επίσης έχει αναδείξει ο βιοηθικός διάλογος στα χρόνια που αναπτύχθηκε και σε ειδικότερες αρχές που καλλιεργούνται επί τούτου στα ζητήματα τής ηθικής σχετικά με τη χρήση τών ρομπότ.

Συγκεκριμένα, η αυτονομία προσλαμβάνεται ως η δυνατότητα λήψης μιας ελεύθερης (και προφανώς ενημερωμένης) απόφασης σχετικά με τους όρους αλληλεπίδρασης με τα ρομπότ. Η ωφέλεια εννοείται αυτονόητα ως η απαίτηση αποκλειστικής ενέργειας τών ρομπότ προς το ανθρώπινο συμφέρον, ενώ αντίστοιχα θα μπορούσαμε να αντιληφθούμε τη σημασία τής αποφυγής βλάβης (στους ανθρώπους, την κοινωνία ή το περιβάλλον) ως προφανή25, αν και η στρατιωτική χρήση τών ρομπότ την αναιρεί ευθέως. Η δικαιοσύνη τέλος γίνεται αντιληπτή ως ισομερής κατανομή τών ωφελειών και τής οικονομικής προσβασιμότητας στη χρήση τών ρομπότ.

Οι ανησυχίες τής «εισβολής» τών ρομπότ στην κοινωνία μας επιστρατεύουν επίσης την επίκληση αρχών όπως η ασφάλεια, η διαφύλαξη τής προσωπικής ταυτότητας, τής ιδιωτικότητας και τής ανθρώπινης αξιοπρέπειας, η εξασφάλιση τής ενήμερης και συνειδητής συναίνεσης τών προσώπων που αφορά η χρήση τών έξυπνων μηχανών, η απαγόρευση κάθε είδους διακρίσεων και αναπαραγωγής στερεοτύπων, η επιδίωξη τού γενικού καλού και τού γενικού οφέλους και η διαφύλαξη τής σωματικής και ψυχολογικής ακεραιότητας τών ανθρώπων. Κεντρικό ζήτημα εδώ αποτελεί η ευθύνη, τόσο στο ατομικό όσο και στο συλλογικό επίπεδο, η οποία, εκτός από τις προαναφερθείσες αξίες, εκδηλώνεται επιπρόσθετα και με την αξιοπιστία, τη διαφάνεια, τη λογοδοσία και την προφύλαξη.

Ενδιαφέρον παρουσιάζει η εξειδίκευση τών αξιών αυτών από τους προβληματισμούς για τη χρήση τών ρομπότ στην ανθρώπινη ζωή. Στο ζήτημα τής κατανομής τής ευθύνης, λ.χ., το γεγονός ότι εμπλέκεται ένα πλήθος ειδικοτήτων στην κατασκευή και χρήση τους (σχεδιαστές, μηχανικοί, προγραμματιστές, κατασκευαστές, επενδυτές, πωλητές, χρήστες) οδηγεί τελικά –σε περίπτωση δυσλειτουργίας ή ατυχήματος– στην αποποίηση τής ευθύνης (κατάσταση γνωστή και ως «το πρόβλημα τών πολλών χεριών»).

Σε αυτήν την προοπτική, είναι εμφανές αντίστοιχα ότι η απαίτηση τής ορθής και συνεπούς λειτουργικότητας αποκτά ένα ηθικό πρόσημο, πέραν δηλαδή αυτού τής οικονομικής βιωσιμότητας. Η δεοντολογία οφείλει επίσης να υφίσταται σε κάθε στάδιο σχεδιασμού και παραγωγής τών ρομπότ, από τις περιβαλλοντικές συνέπειες έως κάθε ηθική πρόβλεψη. Η αρχή τής ένταξης ή συμπερίληψης, από την πλευρά της, περιλαμβάνει τη διασφάλιση τής διαφάνειας σε όλα τα στάδια δημιουργίας και χρήσης τών ρομπότ, καθώς και τον σεβασμό τού νόμιμου δικαιώματος πρόσβασης όλων τών ενδιαφερομένων στις σχετικές πληροφορίες. Σχετικά με την αρχή λογοδοσίας ακόμη, είναι απαραίτητο να λαμβάνονται υπ’ όψιν όλες οι επιπτώσεις τής ρομποτικής για τις τρέχουσες και τις μελλοντικές γενιές. Ιδιαιτέρως κρίσιμες στην προκειμένη περίπτωση είναι οι αρχές τής αναστρεψιμότητας και τής ανιχνευσιμότητας. Σύμφωνα με την πρώτη, απαιτείται να υφίσταται η δυνατότητα ακύρωσης τής τελευταίας ενέργειας ή ακολουθίας ενεργειών, ώστε οι χρήστες να μπορούν να επιστρέψουν σε κάποια ασφαλή φάση τής εργασίας τους26. Όσο για τη δεύτερη, αυτή αφορά τη δυνατότητα παρακολούθησης τών αιτιών όλων τών προηγούμενων ενεργειών και παραλείψεων μιας μηχανής, σε περίπτωση δυσλειτουργίας της. Η εφαρμογή της κρίνεται ως απολύτως απαραίτητη για την περίπτωση κατανομής τής ευθύνης. Τέλος, έχει προταθεί και η εισαγωγή ακόμη ενός νέου ανθρώπινου δικαιώματος, αυτού που αφορά την ουσιαστική ανθρώπινη επαφή27.

Τα ζητήματα εφαρμογής τής ηθικής δεν είναι απλά. Τίθεται κατ’ αρχάς ένα σοβαρό θέμα διασφάλισης μεγεθών που έχουν καταστεί αδιαπραγμάτευτα, όπως η ελευθερία τής έρευνας και η αποτελεσματικότητα αφ’ ενός και η καταστολή δεδομένων αξιών σε περιπτώσεις ανάγκης ή απειλής αφ’ ετέρου. Η Ηθική επιπλέον είναι κάτι περισσότερο από απλούς κανόνες τού τύπου: «ναι/όχι», που θα μπορούσαν να απλουστευθούν και να ενσωματωθούν σε αλγορίθμους, ώστε να δημιουργηθεί λ.χ. ένας εσωτερικός «ηθικός κυβερνήτης» στις μηχανές που να τις προγραμματίζει, ώστε να ακολουθούν συγκεκριμένους και απαραβίαστους ηθικούς κανόνες. Ένα άλλο ζήτημα αφορά το είδος τής Ηθικής που θα χρησιμοποιηθεί και θα αφορά την ανάπτυξη τών επιστημονικών, πολιτιστικών και τεχνικών εργαλείων, από διαφορετικές κοινωνικές ομάδες και πεποιθήσεις, ώστε οι ρομποτικές εφαρμογές να ενθαρρυνθούν προς την προώθηση τής ανθρώπινης κοινωνίας και τών ατόμων, καθώς και για την αποτροπή τών καταχρήσεων κατά τής ανθρωπότητας28.

Οι προτάσεις πρακτικού χαρακτήρα που έχουν κατατεθεί για την πρόληψη αρνητικών καταστάσεων από την παρουσία τών ρομπότ στη ζωή μας περιλαμβάνουν ένα εύλογο και επαρκές χρονικό διάστημα ενός σχετικού δημόσιου διάλογου που θα συνοδεύει την εμφάνιση τών έξυπνων μηχανών, ένα υποχρεωτικό καθεστώς ασφάλισης για τη χρήση τους, την (πειραματική) εισαγωγή τους σε μικρή κλίμακα ώστε να μελετώνται οι επιπτώσεις τους και τη γενικότερη θεώρηση τής εισαγωγής τών ρομποτικών τεχνολογιών ως ενός «κοινωνικού πειράματος» που πρέπει να διεξαχθεί με μεγάλη προσοχή, ώστε να αποφευχθούν κατά το δυνατόν ανεπιθύμητες επιπτώσεις.

Η τάση επίσης να προσδίδεται ανθρωποειδής μορφή στα ρομπότ που κατασκευάζονται, ενισχύει την αντίστοιχη ψυχολογική τάση προβολής ανθρωπίνων ιδιοτήτων σε αυτά, γεγονός που δημιουργεί εξαρτήσεις και αυταπάτες. Γι’ αυτό και ήδη συνιστάται η μη ανθρωπομορφική σχεδίασή τους. Έχει ξεκινήσει επίσης η συζήτηση για την εισαγωγή τους στο Δίκαιο τού Πολέμου, ώστε να περιορισθούν δραστικά και μακροπρόθεσμα να απαγορευθούν τα θανατηφόρα drones, όπως συνέβη ακριβώς με τις νάρκες προσωπικού και τον χημικό και βιολογικό πόλεμο29.

Εκτός όμως από τις ιδέες και τις θεωρητικές προτάσεις, υπάρχουν και συγκεκριμένες πρωτοβουλίες στην ίδια κατεύθυνση. Είναι γνωστό, για παράδειγμα, ότι οι Κυβερνήσεις Κορέας και Ιαπωνίας τα έτη 2007-8 όρισαν πρόβλεψη, σύμφωνα με την οποία θα πρέπει να αναφέρονται σε μία κεντρική βάση δεδομένων όλοι οι τραυματισμοί που προκαλούν τα ρομπότ στους ανθρώπους που προορίζονται να βοηθήσουν. Επίσης, στην πρακτική τού Διεθνούς Οργανισμού Τυποποίησης (ISO) ακολουθείται η εξής γραμμή: Τα περισσότερα Πρότυπα επικεντρώνονται στην αξιοπιστία και την ποιότητα τών προϊόντων, αλλά ορισμένα πρέπει να έχουν και έναν έμμεσο ηθικό χαρακτήρα, ώστε να αναφέρονται στην ασφάλεια τών προϊόντων. Πάνω σε αυτήν τη γραμμή, μπορεί να κινηθεί και ο έλεγχος παραγωγής τών ρομπότ. Στο πνεύμα αυτό, η κοινοπραξία γαλλικών ερευνητικών ιδρυμάτων “Allistene” προχώρησε το 2016 σε πρακτικές προτάσεις ευθύνης τών ερευνητών ρομποτικής σε θέματα ηθικής και νομικής φύσεως, στις οποίες περιλαμβάνονται η ανάγκη πρόβλεψης τής συμπεριφοράς τού συστήματος άνθρωπος- ρομπότ, όπως και η ανάγκη προβληματισμού για την έκταση τής αυτονομίας τών ρομπότ και την ικανότητά τους να μιμούνται τις κοινωνικές και συναισθηματικές αλληλεπιδράσεις τού ανθρώπου. Η Επιτροπή Νομικών Θεμάτων τού Ευρωκοινοβουλίου ακόμη, την ίδια χρονιά, στις συστάσεις της προς την Ευρωπαϊκή Επιτροπή σχετικά με τους κανόνες Δικαίου για τη Ρομποτική, κατέθεσε και πρόταση ψηφίσματος ενός «Χάρτη για τη Ρομποτική», ο οποίος συμπεριλαμβάνει προβλέψεις για Κώδικα Δεοντολογίας Μηχανικών Ρομποτικής, Κώδικα Επιτροπών Δεοντολογίας τής Έρευνας, Άδεια Σχεδιαστών και Άδεια Χρηστών. Την ίδια εποχή, το Βρετανικό Ίδρυμα Προτύπων δημοσίευσε έναν Οδηγό για τον ηθικό σχεδιασμό και την εφαρμογή τών ρομποτικών συστημάτων, με τη συνδρομή ποικίλων ειδικών και σκοπό την καθοδήγηση για τον εντοπισμό δυνητικών ηθικών βλαβών και για έναν ασφαλή σχεδιασμό και εφαρμογή τών ρομπότ. Το 2017 το Ινστιτούτο Rathenau [κατόπιν ανάθεσης από την Κοινοβουλευτική Συνέλευση τού Συμβουλίου τής Ευρώπης (PACE)] δημοσίευσε την έκθεση «Ανθρώπινα δικαιώματα στην εποχή τών ρομπότ», στην οποία τέθηκαν τα προβλήματα που φέρνει μαζί της η μηχανοποίηση τής ανθρώπινης ζωής και παρουσιάσθηκαν προτάσεις αντιμετώπισής τους30.

Ένα άλλο συναφές ζήτημα είναι η διεθνής απουσία ρυθμίσεων για τη λειτουργία αυτών τών μηχανών. Εκτός από ορισμένες εξαιρέσεις, παρουσιάζεται γενικά ένα είδος νομικής ανεπάρκειας στη διαχείριση αυτού τού νέου και ταχέως αναπτυσσόμενου τομέα τής έρευνας. Για την ώρα, λ.χ., τα ρομπότ αντιμετωπίζονται νομικά με τον ίδιο τρόπο όπως οποιοδήποτε άλλο τεχνολογικό προϊόν (π.χ. παιχνίδια, αυτοκίνητα ή όπλα)…31.

Το κεντρικό δίλημμα που αντιμετωπίζει πάντως η ανθρώπινη σκέψη σχετίζεται με τη νεωτερική «ιεροποίηση» τής προόδου και τους συναφείς «καθαγιασμούς» τής ανάπτυξης, τής έρευνας και τής καινοτομίας.

Στην προοπτική αυτήν, οι ανησυχίες και οι έλεγχοι, που ζητούνται να τεθούν, θεωρούνται ως υπερβολικές φοβίες και προσκόμματα στην προαγωγή τής έρευνας. Και καθώς κάθε πρόβλεψη είναι για την ώρα επισφαλής, η πίεση τών «τεχνολογικά αισιόδοξων» όσο και εκείνων που επιδιώκουν ισχύ στηρίζεται στην ικανότητα τής έρευνας να θεραπεύει τα προβλήματα που η ίδια δημιουργεί32.

Πολλές προσδοκίες για την εν λόγω διαχείριση επενδύονται στη σύσταση ειδικών επιτροπών δεοντολογίας τής έρευνας, οι οποίες θα εξετάζουν επισταμένως τις πιθανές μελλοντικές κοινωνικές επιπτώσεις από τη χρήση τών ρομπότ, ώστε να λαμβάνουν τις κατάλληλες αποφάσεις στο παρόν. Θα μπορούν λ.χ. να εντέλλονται επαναλήψεις ελέγχων, όταν διαπιστώνονται δεοντολογικές αποκλίσεις, να ανακαλείται η έγκριση τής έρευνας ή να απαιτείται η διακοπή της33.

Σε κάθε περίπτωση πάντως, οφείλουμε να αντιληφθούμε ότι η τεχνολογική εξέλιξη έχει φέρει την ανθρωπότητα σε ένα κομβικό σημείο, στο οποίο καλείται να λάβει κρίσιμες αποφάσεις. Η παλαιά (και μάλλον καθησυχαστική) αντίληψη ότι η τεχνολογία είναι ηθικά ουδέτερη, αλλά όχι η χρήση της, δεν φαίνεται πως ισχύει. Μάλλον και η ίδια η τεχνολογία διατηρεί αφ’ εαυτής ιδία ηθική φόρτιση. Και βέβαια θα χρειαστεί εδώ να επαναξιολογήσουμε τα ηθικά μας κριτήρια, να εξετάσουμε αν μπορούμε να αξιολογήσουμε τις νέες τεχνολογίες με βάση παλαιότερες αξίες, αν το αξιακό μας επίπεδο επαρκεί για να αντιμετωπίσουμε τις καινοφανείς ηθικές προκλήσεις που θέτει η νέα τεχνολογική εποχή34.

Π. Παναγιωτόπουλου 77 Τα ερωτήματα που έχουμε σήμερα να απαντήσουμε διαρθρώνονται σε πολλαπλά επίπεδα. Στο προσωπικό επίπεδο, λ.χ., οφείλουμε να απαντήσουμε για το είδος τών σχέσεων που θα οικοδομήσουμε με τις μηχανές στην ιδιωτική μας σφαίρα και να αναγνωρίσουμε τη νέα ανθρώπινη ταυτότητα που θα προκύψει από αυτήν τη συμβίωση. Στο κοινωνικό επίπεδο, να εξετάσουμε την έκταση τής εισόδου τους στον χώρο τής εργασίας, την εξάρτηση από αυτές που θα αναπτυχθεί και την επίδρασή τους στις αξίες μας, όπως είναι η ισότητα, η αξιοπρέπεια και η κοινωνικοποίηση. Σε πολιτικό επίπεδο, οφείλουμε να αποφασίσουμε για την ισχύ που θα αποκτήσουν στο όνομα τής ανθρώπινης ασφάλειας και στο είδος τών αποφάσεων που τους ζητηθεί να λαμβάνουν για λογαριασμό μας35.

Οι απαντήσεις στα ερωτήματα αυτά απαιτούν τη μεγαλύτερη δυνατή κοινωνική συμμετοχή στη διαβούλευση και τη λήψη αποφάσεων, ώστε να αναπτυχθεί μία γρηγορούσα και ζωντανή συλλογική συνείδηση, που θα ελέγχει κατά το δυνατόν την παρουσία τών μηχανών στη ζωή μας. Οι προϋποθέσεις για τον κοινωνικό αυτόν διάλογο είναι η αποφυγή τόσο τής εκτροφής ουτοπικών ελπίδων όσο και τής φοβικής πεισματικής άρνησης, η υπεύθυνη πληροφόρηση (και όχι η εμπαθής ή η τροφοδοτούμενη από φημολογίες), η κατάλληλη γνώση και κριτική ευαισθητοποίηση, η εκπαίδευση τών πολιτών στην ανάπτυξη τών βασικών τεχνολογικών δεξιοτήτων και η μεγιστοποίηση τής ανθρώπινης αξίας στο κοινωνικό υπόβαθρο.

 

Γ. Νευροηθική

Πρόκειται επίσης για νέο βιοηθικό κλάδο, που μελετά τα ηθικά ζητήματα που σχετίζονται με τον εγκέφαλο, τις νευροεπιστήμες και τη νευροτεχνολογία. Ειδικότερα, μελετά τα ηθικά ζητήματα που προκύπτουν από τις παρεμβάσεις στον εγκέφαλο ή το κεντρικό νευρικό σύστημα. Το πεδίο έρευνάς της βρίσκεται στην τομή τών επιστημών τού εγκεφάλου, τής ηθικής, τής φιλοσοφίας τού νου, τής νομικής επιστήμης και τών κοινωνικών επιστημών36.

Και σε αυτήν την περίπτωση εμφανίζεται το ίδιο σκηνικό: οι απανωτές ανακαλύψεις τών νευροεπιστημών φέρνουν τη φαντασία πολύ κοντά στην πραγματικότητα και επομένως δημιουργούν την ανάγκη συνολικών απαντήσεων και τής δημιουργίας ενός γενικότερου ηθικού (και κατ’ επέκταση νομικού) πλαισίου διαχείρισης τών σχετικών ανακαλύψεων.

Στο συγκεκριμένο πεδίο μάλιστα, η ενασχόληση αφορά εκείνο το όργανο που μάς κάνει ξεχωριστούς, συνιστά την προσωπικότητά μας, διαχειρίζεται τις μνήμες και τα συναισθήματά μας και έχει κεντρική συμμετοχή στη δημιουργικότητα αλλά και στην αποτυχία μας. Δεν είναι λίγοι οι νευροεπιστήμονες που εμφανίζονται απρόθυμοι να διερευνήσουν τα άδυτα τής εγκεφαλικής λειτουργίας, έχοντας επίγνωση τού μυστηριακού χαρακτήρα τους, μιας και αφορούν άμεσα τα λεπτά ζητήματα τής προσωπικότητας, τής ευθύνης και τής συνείδησης. Σε κάθε περίπτωση, οι έρευνες και οι ανακαλύψεις στη δομή και τη λειτουργία τού εγκεφάλου άπτονται ηθικών, κοινωνικο-οικονομικών, νομικών, πολιτικών και –οπωσδήποτε– θεολογικών συνεπειών37.

Ας δούμε όμως εν συντομία τα κυριότερα πεδία έρευνας που εγείρουν νευροηθικούς προβληματισμούς:

1. Η απεικόνιση τών εγκεφαλικών δομών ως ερευνητική προσπάθεια στοχεύει στην κατανόηση τής εγκεφαλικής λειτουργίας. Τι θα συμβεί όμως όταν τα δεδομένα αυτών τών ερευνών χρησιμοποιηθούν για τη χειραγώγηση τής συμπεριφοράς, καταστρατηγώντας την ανθρώπινη ιδιωτικότητα (δηλ. την προσωπικότητα); Κατά πόσον άραγε διατηρείται η ανθρώπινη αυτοτέλεια, ο πυρήνας τής ανθρώπινης ταυτότητας και το μυστήριο τού ανθρώπινου προσώπου σε αυτή την έκθεση, την εισβολή δηλαδή στα άδυτα τής ανθρώπινης ύπαρξης38;

2. Ήδη συζητείται έντονα το θέμα τού Εγκεφαλικού Θανάτου. Τι θα συμβεί σε περιπτώσεις που οι νέες τεχνικές διαπιστώσουν πλήρη έλλειψη εγκεφαλικής λειτουργίας σε έναν ασθενή που βρίσκεται σε κώμα, ενώ οι κλασικές κλινικές τεχνικές έδειχναν παρουσία συνείδησης39;

3. Διαπιστώνεται μία αύξουσα τάση χρήσης φαρμακευτικών ουσιών από υγιή άτομα, για να βελτιώσουν τη γνωστική τους ικανότητα, τη διάθεση ή τη μνήμη τους. Ωθούμαστε δηλαδή σε ένα είδος «ιατρικοποίησης» τής καθημερινής συμπεριφοράς40.

4. Αυτού του είδους οι νευροτροποποιήσεις εγείρουν οπωσδήποτε ζητήματα ιατρικής ηθικής ή ακόμη και κοινωνικής δικαιοσύνης. Ποιος είναι λ.χ. αυτός ο οποίος μπορεί να αποφασίσει την παροχή ενός τέτοιου σκευάσματος σε κάποιο υγιές άτομο; Στις περιπτώσεις κοινωνικού ανταγωνισμού, είναι θεμιτή η χρήση τέτοιων ουσιών; Αυτές οι ουσίες κυκλοφορούν ελεύθερα μεν, αλλά από τη στιγμή που χορηγούνται σε παιδιά, δεν προκύπτει ένα ζήτημα εθισμού σε αυτά; Και επιπλέον, δεν θα προκύπτει ένα (ακόμη) ζήτημα ισότητας απέναντι στις ευκαιρίες αυτές, αφού δεν θα έχουν όλοι την ίδια δυνατότητα πρόσβασης σε παρόμοια σκευάσματα41;

5. Σήμερα έχουν αναπτυχθεί ποικίλες τεχνικές επέμβασης στην εγκεφαλική δραστηριότητα (εμφυτεύματα, διεγέρσεις εγκεφαλικών περιοχών κ.α.)42. Για την ώρα, αυτές χρησιμοποιούνται για ερευνητικούς και θεραπευτικούς λόγους (σε περιπτώσεις νευρολογικών ή ψυχιατρικών διαταραχών). Θα γίνει δεκτή όμως μία επέκταση τής χρήσης τους και για άλλους λόγους, π.χ. σωφρονιστικούς; Αν δηλαδή διαπιστωθεί ότι μία εγκληματική δραστηριότητα οφειλόταν σε κάποια εγκεφαλική λειτουργία, θα είναι επιθυμητή μία ανάλογη παρέμβαση; Ήδη εξετάζεται η υποχρεωτική χορήγηση ψυχοφαρμάκων στο πλαίσιο τής ποινής που θα επιβάλλεται σε περιπτώσεις παραφιλιών (παιδοφιλία, νεκροφιλία). Σε κάποιες χώρες μάλιστα εφαρμόζεται ο λεγόμενος «χημικός ευνουχισμός», καθώς επιβάλλεται σε καταδικασμένους για παιδοφιλία η επιλογή είτε να παραμείνουν εκτός φυλακής με αναστολή, λαμβάνοντας όμως φάρμακα που καταστέλλουν τις σεξουαλικές ορμόνες, είτε να οδηγηθούν σε κάθειρξη, εφ’ όσον αρνηθούν τη λήψη τών φαρμάκων αυτών. Και βέβαια το ερώτημα είναι: ποιος θα αποφασίζει στις περιπτώσεις αυτές; Θα είναι απαραίτητη η συναίνεση τού ασθενούς ή όχι43;

6. Όσον αφορά τις περιπτώσεις απόδοσης ποινικών ευθυνών σε διάπραξη αδικημάτων, η παραδοσιακή νομική αντίληψη θέλει τις ποινές να επιβάλλονται σε άτομα τα οποία είναι σε θέση να διακρίνουν το καλό από το κακό. Οι σύγχρονες τεχνικές απεικόνισης τού εγκεφάλου όμως αναδιατάσσουν πλήρως τη συζήτηση: μπορεί κάποιος να είναι μεν σε θέση να προβεί στην εν λόγω διάκριση, ωστόσο η εγκεφαλική του δραστηριότητα δυσλειτουργεί τόσο, ώστε αδυνατεί πλήρως να ελέγξει τη συμπεριφορά του. Τι είδους μεταχείριση θα τύχει από την πολιτεία; Στην ίδια γραμμή προβληματισμού, ο δράστης εγκληματικών πράξεων για τον οποίο θα διαπιστωθεί μία εγκεφαλική δυσλειτουργία, θα δικαιούται ευμενούς νομικής αντιμετώπισης για όσα διέπραξε44;

Είναι φανερό εδώ ότι το ζήτημα τής προσωπικής ευθύνης ή, αν θέλετε, τής ανθρώπινης βούλησης αποκτά έναν επιτακτικό χαρακτήρα σχετικά με τη φύση της και την εξάρτησή της από τους βιολογικούς παράγοντες που προσδιορίζουν την ανθρώπινη προσωπικότητα.

7. Σχετικά με τις εγκεφαλικές παρεμβάσεις που αναφέρθηκαν, ένα ακόμη ζητούμενο είναι η ακεραιότητα τού εσωτερικού κόσμου όσων τις υφίστανται (τών αναμνήσεων, τών συναισθημάτων κ.λπ.). Λ.χ., υπάρχει περίπτωση οι αναμνήσεις να καταστραφούν, να τροποποιηθούν ή να δημιουργηθούν ψευδείς αναμνήσεις45;

8. Οι απεικονίσεις τού εγκεφάλου, που ήδη πραγματοποιούνται, αναδεικνύουν οπωσδήποτε μία εικόνα τού εαυτού μας. Θα παραμείνει όμως ακέραιο το ερώτημα: κατά πόσον αυτή η εικόνα ανταποκρίνεται πλήρως στην πραγματικότητα; Επιπλέον, με βάση τις νέες αυτές τεχνικές, έχουν αρχίσει ήδη να λειτουργούν «τέστ αλήθειας» (ή αντίστοιχα ανιχνευτές ψεύδους) βασισμένα στην απεικόνιση τής εγκεφαλικής λειτουργίας, για τα οποία πιστεύεται ότι θα είναι περισσότερο αξιόπιστα από τα σημερινά (τα οποία στηρίζονται στην καταμέτρηση τού άγχους), θα βελτιωθούν περαιτέρω και πιθανότατα θα διευρυνθεί η χρήση τους. Ποιος όμως θα είναι σε θέση να εγγυηθεί ως προς την αξιοπιστία και το εύρος εφαρμογής τους46;

9. Οι καινοφανείς τεχνικές, για τις οποίες γίνεται λόγος, θα είναι δυνατόν να χρησιμοποιηθούν για πολιτικούς ή για εμπορικούς λόγους;

Πώς θα γίνει δυνατόν να διασφαλισθεί ο έλεγχος τής χρήσης τους από κρατικές, παρακρατικές ή τρομοκρατικές ομάδες; Σε ποιο βαθμό θα επιτρέπεται σε εταιρείες να χρησιμοποιούν τα αποτελέσματα τών αντίστοιχων ερευνών για να κατευθύνουν τα άτομα σε συγκεκριμένες πολιτικές ή καταναλωτικές προτιμήσεις47;

10. Ήδη είναι διαπιστωμένη η διαφορετική εγκεφαλική λειτουργία για κάθε άνθρωπο ξεχωριστά. Συνεπώς, τα αποτελέσματα που προκύπτουν από τη μελέτη τού εγκεφάλου θα μπορούν να τύχουν γενικής εφαρμογής; Κατά πόσον η συναγωγή γενικευμένων κανονικοτήτων θα είναι σε θέση να υπερασπισθεί τις περιπτώσεις όσων δεν ακολουθούν τις αναγνωρισμένες νόρμες; Θα μπορούν λ.χ. να θεσπισθούν βάσει νευροαπεικονιστικών μελετών «τύποι εγκληματικής συμπεριφοράς» με ορισμένη διαχείρισή τους στη συνέχεια48;

11. Σε συνέχεια τού προηγούμενου προβληματισμού, στην κοινότητα τών ερευνητών που ασχολούνται με την εγκεφαλική δομή δεν υπάρχει ομογνωμία σε αρκετά σημεία τής έρευνας. Τα συμπεράσματα που προκύπτουν από τις έρευνες δεν τυγχάνουν κοινής ανάγνωσης από όλους.

Εύλογα ανακύπτουν τα ερωτήματα: Ποιές απόψεις θα επικρατήσουν; Μήπως υπάρχουν επίπεδα νόησης ή συνείδησης που υπερβαίνουν το πλαίσιο τής σημερινής ερμηνείας μας; Και πόσο ασφαλές θα είναι για τον άνθρωπο να προχωρήσουμε σε εφαρμογές προτού διαμορφωθεί μία περισσότερο ολοκληρωμένη εικόνα τής νόησής του49;

Το ανθρωπολογικό ενδιαφέρον που παρουσιάζουν τα αποτελέσματα παρόμοιων ερευνών εγγίζει αναπόφευκτα και το πεδίο τής Ηθικής (και κατ’ επέκταση και τής Ποιμαντικής). Εντοπίζεται, λ.χ., ότι οι πληροφορίες τού εγκεφάλου προς τα αισθητήρια όργανα είναι πολύ περισσότερες από εκείνες που ακολουθούν την αντίθετη πορεία. Αυτό σημαίνει ότι, κατά κανόνα, από ένα σημείο και μετά η ανθρώπινη γνώση είναι περισσότερο προκατασκευασμένη παρά οικοδομούμενη.

Ή αντίστοιχα, ότι λειτουργούμε περισσότερο με υποθέσεις που επιβεβαιώνονται, παρά με έλεγχο και ανασκευή τών ήδη θεμελιωμένων πεποιθήσεών μας. Συνεπώς, είμαστε πιο επιρρεπείς στην απόρριψη πληροφοριών που δεν ταιριάζουν με τις αντιλήψεις μας. Αυτή η «κατασκευασμένη ισχυρογνωμοσύνη» όμως φαίνεται πως συντελεί αποφασιστικά στην εύρυθμη λειτουργία τού εγκεφάλου, καθώς η σταθερότητα και η αποτελεσματικότητα τής λειτουργίας του συνδέονται άμεσα με τη διήθηση τών πληροφοριών που εισέρχονται από τον εξωτερικό κόσμο, ώστε να συνταιριάζουν με τις προδιαμορφωμένες θέσεις μας. Με άλλα λόγια, η προκατάληψη είναι απαραίτητη για την προσαρμογή στο περιβάλλον μας50.

Αυτό με τη σειρά του σημαίνει ότι τα δεδομένα τών αισθήσεων υφίστανται μία επεξεργασία προτού καταγραφούν στον εγκέφαλο.

Κάτι τέτοιο σχετικοποιεί οπωσδήποτε την έννοια τού αντικειμενικού και συνάμα θέτει εν αμφιβόλω την αξιοπιστία τής αισθητηριακής αντίληψης.

Από καιρό βέβαια οι ανακαλύψεις τής επιστημονικής έρευνας είχαν αμφισβητήσει τις ακλόνητες βεβαιότητες τής συνήθους αντίληψης51.

Τα ίδια ευρήματα οδηγούν σε διεύρυνση τών προβληματισμών σε διάφορα πεδία. Π.χ., άτομα στα οποία επιδείχθηκε η φωτογραφία ενός λευκού να καθαρίζει τα παπούτσια ενός μαύρου, απάντησαν αργότερα ότι είδαν το ακριβώς αντίθετο (έναν μαύρο να καθαρίζει τα παπούτσια ενός λευκού)52! Η πρότερη εμπειρία τους προφανώς προκαθόρισε την εικόνα που σχημάτισαν μέσα τους: “είδαν» αυτό που περίμεναν να δουν… Κάτι τέτοιο θίγει την αξιοπιστία τών αυτοπτών μαρτύρων – πεδίο που ενέχει νομικές, πολιτικές, ιστοριογραφικές κ.α. διαστάσεις. Προκύπτει δηλαδή το καίριο ερώτημα για το πόσο αξιόπιστοι και κυρίως «πόσο αυτόπτες» είναι οι αυτόπτες μάρτυρες ενός περιστατικού. Στις Η.Π.Α. για την ακρίβεια, έχει εξακριβωθεί ότι σε ορισμένες περιπτώσεις οι καταθέσεις αυτοπτών μαρτύρων, με βάση τις οποίες ελήφθησαν δικαστικές αποφάσεις, προέκυψε αργότερα πως ήταν λανθασμένες (όπως απέδειξαν άλλα, ανεξάρτητα στοιχεία, π.χ. εξετάσεις DNA)53. Σε σχετικά πειράματα, οι συμμετέχοντες αναγνώρισαν ή “θυμήθηκαν» τα ονόματα … ανύπαρκτων μαύρων εγκληματιών54.

Τα ζητήματα που ήδη τέθηκαν από την ανάπτυξη τών Νευροεπιστημών οδηγούν περίπου αβίαστα στον προβληματισμό σχετικά με πολλά κεντρικά ζητήματα τής πνευματικής ζωής. Κατ’ αρχάς, σχετικά με το θεμελιώδες ζήτημα τής προσωπικής ευθύνης, διαπιστώνεται πως αυτή εξαρτάται σε μεγάλο βαθμό από τη φυσιολογική ή μη λειτουργία ευαίσθητων βιολογικά περιοχών τού ανθρώπινου οργανισμού. Με άλλα λόγια, η διαλεκτική μεταξύ γνωμικού και φυσικού θελήματος τίθεται σε μία νέα βάση55. Από τη στιγμή που διαπιστώνεται πως η ύπαρξη εγκεφαλικών κακώσεων ή και ελασσόνων δυσλειτουργιών, ο μηχανισμός αυτοελέγχου διαταράσσεται αποφασιστικά μέχρις αλλοιώσεως τής προσωπικότητας· είναι προφανές πως το ζήτημα τής προσωπικής ευθύνης για τις ανθρώπινες πράξεις συνδέεται με πολλούς παράγοντες και οπωσδήποτε δεν μπορεί να αντιμετωπίζεται μονοδιάστατα. Οι εγκεφαλικές αλλοιώσεις μπορούν να οδηγήσουν σε ιδιαιτέρως έντονες ή και απεχθείς αντιδράσεις σε μία κρίσιμη περίσταση, όπως λ.χ. σε μία εκδήλωση θυμού (η οποία σε «φυσιολογικές» συνθήκες θα εκδηλωνόταν με διαφορετικό τρόπο)56.

 

Δ. Συμπερασματικά

Είδαμε δύο χαρακτηριστικά παραδείγματα για τον τρόπο με τον οποίο η τεχνολογική ανάπτυξη έρχεται να αναδιατάξει τις παραμέτρους τού ανθρωπίνου βίου. Αν πάντοτε η τεχνολογία σηματοδοτούσε (λιγότερο ή περισσότερο) τον τρόπο με τον οποίο σχετιζόμαστε με τον κόσμο και τον εαυτό μας, είναι φανερό ότι αυτές οι σχέσεις εισέρχονται σε μία περίοδο αλλαγών, με άδηλη την κατάληξή τους. Ήδη οι διαχωριστικές γραμμές μεταξύ ανθρώπου και μηχανής, φυσικού και τεχνητού, πραγματικότητας και εικονικότητας έχουν αρχίσει να θολώνουν57.

Επιπλέον, εκτός από τις πολύπλοκες διαστάσεις τών προβληματισμών που ήδη αναφέραμε, υφίστανται και άλλες που αφορούν τη Γενετική Μηχανική, τον Μετα-ανθρωπισμό, την Τεχνητή Νοημοσύνη κ.λπ.

Είναι λογικό οι εξελίξεις αυτές να προκαλούν ανησυχίες και φόβο. Με τον φόβο όμως δεν αντιμετωπίζονται τα προβλήματα. Και οπωσδήποτε πρέπει να σημειωθεί εδώ ότι οι ανησυχίες δεν μονοπωλούν το ενδιαφέρον τών θεολογούντων ή τών θρησκευομένων. Είναι πολλοί, ανάμεσά τους και ειδικοί, που διαβλέπουν στις εν λόγω εξελίξεις μία σαφή υποχώρηση τόσο τής ανθρωπινότητας όσο και τής ανθρωπιάς μας. Επιμένουν έτσι στο αίτημα μιας τεχνολογίας που θα υπηρετεί τον άνθρωπο και τα χαρακτηριστικά του και δεν θα τον υποδουλώνει.

Ο θεολογικός λόγος είναι αδιανόητο από την πλευρά του να οχυρώνεται πίσω από φοβίες και καταγγελίες. Οφείλει να αξιολογεί κατά το δυνατόν αντικειμενικά το παρόν, να υποδεικνύει τους τρόπους ποιμαντικής διαχείρισής του και να εργάζεται για τη θεραπεία τών εκτροπών και αδυναμιών του. Έχει καθήκον παράλληλα να συνδιαλέγεται με το περιβάλλον του και να συνδράμει σε κάθε πρόταση «καλής θελήσεως» που επιδιώκει την προστασία και ωφέλεια τού ανθρωπίνου προσώπου. Εξ άλλου, σε όλους τους κλάδους τής γνώσεως αναγνωρίζεται το αίτημα τής διεπιστημονικότητας, στο πλαίσιο τού οποίου είναι ορατή και η ανάγκη συμβολής και τής Θεολογίας.

Στη χριστιανική παράδοση επιπλέον, είναι ευδιάκριτη η αρετή τής ευρύτητας στη θέαση τών πραγμάτων, με την οποία αναγνωρίζεται πως αυτή είναι απαραίτητη για να αντιμετωπισθούν οι δυσκολίες τού κοινού βίου58. Θεωρώντας τη δημιουργία τού Θεού καλήν λίαν59, αναγνωρίζοντας το λογικό ως θεία δωρεά60, υποψιαζόμενοι τις απέραντες διαστάσεις τής χρονικότητας και τής τοπικότητας τής ύπαρξής μας και εμπνεόμενοι από το αειθαλές όραμα τής Βασιλείας, καλούμαστε να αγκαλιάζουμε με το βλέμμα και τον νου τα φαινόμενα τού βίου από κάθε πλευρά – να αξιολογούμε την κτιστότητά τους61 και να τα εντάσσουμε στην προοπτική τής αγιότητας. Έτσι μπορούμε να προσφέρουμε περισσότερο αυθεντικά αυτό που είναι ζητούμενο από πολλές πλευρές: τη διακονία και την τιμή στο ανθρώπινο πρόσωπο.

Η ανησυχία και ο προβληματισμός για τη ραγδαία ανάπτυξη τών τεχνολογικών δυνατοτήτων εκφράζονται, όπως είδαμε, με την απαίτηση η έρευνα να συνοδεύεται από διαφάνεια, λογοδοσία, σαφήνεια, υπεύθυνη διαχείριση τών διαθέσιμων πόρων, συμμετοχικότητα, αλληλεγγύη, μέριμνα για το κοινό καλό, ισοτιμία, υπέρβαση διακρίσεων, κοινωνική δικαιοσύνη, σεβασμό στην εγγενή αξιοπρέπεια τού ατόμου62.

Οι κοινωνικές αυτές αξίες είναι ζητούμενα που απαιτούν ευρύτερη υποστήριξη και προαγωγή. Από την άλλη πλευρά, η χριστιανική σκέψη έχει να επιδείξει μία πλούσια, οξεία και με πολύ λεπτό τρόπο επεξεργασμένη κοινωνική ευαισθησία, στηριγμένη στη φρόνηση, την εγκράτεια και τον αυτοέλεγχο. Δυστυχώς οι τελευταίες δεκαετίες φανέρωσαν έναν πολύ περιορισμένο τρόπο εκδήλωσης αυτών τών αρετών, με πεδίο φανέρωσής τους κατά βάσιν την ατομική ευσέβεια και την ομολογιακή εσωστρέφεια. Και όμως, σχεδόν σε όλες τις πτυχές της, η χριστιανική παράδοση φανερώνει το αντιπαραδοσιακό πνεύμα τής σύγχρονης παραδοσιαρχίας. Λ.χ., σε μία εποχή αναζήτησης και αποθέωσης τών οράσεων και προοράσεων, ένας κατ’ εξοχήν “καθηγητής τής ερήμου», ο άγ. Ιωάννης ο Σιναΐτης, συνιστά στους πιστούς να μην επιθυμούν οράσεις· και ο όσιος Σωφρόνιος (Σαχάροφ) συμπληρώνει πως μία είναι η επιθυμητή όραση για τους χριστιανούς: η όραση τής αμαρτίας μας63! Εάν επομένως προσδώσουμε στις χριστιανικές αξίες την πληρότητα τού περιεχομένου τους και εγκαταλείψουμε την επιλεκτική ατομοκεντρική ή και φοβική προσέγγισή τους, θα έχουμε πολλά περιθώρια να συνεισφέρουμε στις ποικίλες πτυχές τού βιοηθικού διαλόγου, που «μαίνεται» διεθνώς, ένα μεγάλο απόθεμα σωφροσύνης ως προσφορά στη διαφύλαξη τής τιμής τού ανθρωπίνου προσώπου.

 

Σημειώσεις


1. Βλ. M. Etehad, “Russian robot gets a few hours of freedom after escaping a lab”, εδώ. B. Guarino, “After escaping its creators a second time, Russian robot’s final destination may be scrap heap”, εδώ. K. Milanian, “Intelligent robot that ̔remembers and learns' could be scrapped after escaping a lab for a second time”, εδώ. R. Pocklington, “World's first robot SUICIDE as family return to find cleaning gadget had turned to ash”, εδώ.

2. Εκτιμάται μάλιστα ότι η πρόσφατη πανδημία τού ιού Covid-19 θα αυξήσει τις επενδύσεις σε αυτοματοποιημένες διαδικασίες και ευρύτερα θα εντατικοποιήσει την παρουσία τών «έξυπνων» μηχανών στην ανθρώπινη ζωή.

3. Η χρήση τών ρομπότ, λ.χ., εγείρει ζητήματα ενίσχυσης τών ανθρωπίνων δυνατοτήτων.

4. Βλ. Ιω. Πέτρου, Κοινωνική Θεωρία και Σύγχρονος Πολιτισμός, εκδ. Βάνιας, Θεσσαλονίκη 2005, σσ. 114, 118, 122, 133. Χ. Τσιρώνης, Θρησκεία και Κοινωνία στη Δεύτερη Νεωτερικότητα. Λόγοι, διάλογοι & αντίλογοι στο έργο τού Ul. Beck, εκδ. Μπαρμπουνάκης, Θεσσαλονίκη χ.χ., σσ. 12-3, 45, 68-70, 78, 121, 142, 145-6.

5. Συγκεκριμένα, για τη δημιουργία τών ρομπότ είναι απαραίτητη μία γκάμα ειδικοτήτων, στην οποία περιλαμβάνονται ηλεκτρολόγοι και μηχανολόγοι μηχανικοί, μηχανικοί υπολογιστών, βιολόγοι, ψυχολόγοι, νευρολόγοι, εμπειρογνώμονες τής Τ.Ν, ειδικοί στη λογική και τις γνωστικές διαδικασίες, μαθηματικοί, φιλόσοφοι, νομικοί, οικονομολόγοι, σχεδιαστές, καλλιτέχνες κ.α. Αντίστοιχη ευρύτητα οφείλει να χαρακτηρίζει το σύνολο τών ειδικών που πρόκειται να μελετήσουν τις επιπτώσεις τής παρουσίας τους. Βλ. Report of COMEST on Robotics Ethics, World Commission on the Ethics of Scientific Knowledge and Technology (COMEST), UNESCO, Paris, Sept. 2017, σσ. 10-11, 17. Developments in Robotics and Roboethics, Comitato Nazionale per la Bioetica/ Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita, July 2017, χ.τ., σσ. 4, 24, 34-5.

6. Βλ. Απολλοδώρου, Βιβλιοθήκη 1, 26. Σε μία άλλη εκδοχή, τον Τάλω τον είχε δημιουργήσει ο Δαίδαλος, κατασκευαστής τού Λαβυρίνθου, επίσης για να τον δωρίσει στον Μίνωα. Ο Δαίδαλος ακόμη δημιούργησε ένα ομοίωμα αγελάδας για τη γυναίκα τού Μίνωα Πασιφάη, καθώς και ένα άγαλμα τής Αφροδίτης, το οποίο εκινείτο με υδράργυρο. Βλ. ό.π., 3, 15. Αριστοτέλους, Περί ψυχής, 1, 3.

7. Βλ. Ομήρου Ιλιάδος Σ΄, στ. 376, 417-20.

8. Βλ. Report of COMEST, ό.π., σσ. 12.

9. Βλ. M. Idel, Golem: Jewish Magical and Mystical Traditions on the Artificial Anthropoid, State University of New York Press, Albany, NY 1990, Report of COMEST, ό.π., H. Salfellner, The Prague Golem: Jewish Stories of the Ghetto, Vitalis, Prague 2016.

10. Βλ. A. Hamori, “An Allegory from the Arabian Nights: The City of Brass”, Bulletin of the School of Oriental and African Studies 34 (1) (1971), σσ. 10-3. D. Pinault, Story-Telling Techniques in the Arabian Nights, Brill, Leiden 1992, σσ. 10-11, Report of COMEST, ό.π.

11. Βλ. J. B. S. Haldane, Daedalus; or, Science and the Future, Dutton, New York 1924. L. Schmeink, Biopunk Dystopias Genetic Engineering, Society and Science Fiction, Liverpool University Press, Liverpool 2016, σσ. 2-4. Report of COMEST, ό.π.

12. Στα τσέχικα η λέξη “robota” σημαίνει «έργο» ή «εργασία».

13. Βλ. W. Stone, “History of Robotics”, στο: T. Kurfess (ed.), Robotics and Automation Handbook, CRC Press, Boca Raton 2005, σσ. 1. 3. Robotics. Appin Knowledge Solutions, Infinity Science Press, Hingham, MA. - New Delhi 2007. Report of COMEST, ό.π., σσ. 11, 13.

14. Βλ. W. Stone, “History of Robotics”, ό.π., σσ. 1. 2. Report of COMEST, ό.π., σσ. 12-3. R. Gibson, Desire in the Age of Robots and AI: An Investigation in Science Fiction and Fact, Palgrave Macmillan, Cham 2020, σσ. 15-6.

15. Βλ. Ι. Asimov, “The Lord's Apprentice», στο: Β. Preiss (ed.), The Ultimate Frankenstein, Dell, New York 1991, σσ. 1-6. Developments in Robotics and Roboethics, ό.π., σ. 6. F. Govers, Artificial Intelligence for Robotics: Build Intelligent Robots that Perform Human Tasks, Packt, Birmingham 2018, σ. 75.

16. Βλ. Ι. Asimov, Robot Visions, New American Library, New York 1990. W. Stone, “History of Robotics”, ό.π., σσ. 1. 3-4. R. Murphy – D. D. Woods, “Beyond Asimov: The Three Laws of Responsible Robotics”, IEEE Intelligent Systems, 24(4), 2009: 14-20. P. Lichocki, P. Kahn Jr, and A. Billard, “The Ethical Landscape of Robotics”, IEEE Robotics and Automation Magazine, 18, 1 (2011), σσ. 46-7. Report of COMEST, ό.π., σσ. 13. Τέσσερις δεκαετίες μετά, στο βιβλίο του Robots and Empire (1985), ο Asimov εισήγαγε τον μηδενικό νόμο τής ρομποτικής: «Ένα ρομπότ δεν θα κάνει κακό στην ανθρωπότητα, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί η ανθρωπότητα», βλ. W. Stone, “History of Robotics”, ό.π., P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., 46. Report of COMEST, ό.π.

17. Βλ. Πινδάρου, Ολυμπιόνικοι, 7, στ. 51-3.

18. Βλ. M. Baum – J. Freedman, The History of Robots and Robotics, Rosen, New York 2018, σσ. 11-4. W. Stone, “History of Robotics”, ό.π., σσ. 1. 2. C. Oxlade, The History of Robots, Raintree, Oxford 2018, σσ. 6-8. Report of COMEST, ό.π., σ. 14.

19. Η 1η γενιά τοποθετείται πριν από το 1980 και περιλαμβάνει μηχανικά, σταθερά, ακριβή, γρήγορα, ανθεκτικά και χρησιμοποιούμενα κυρίως για υπηρεσίες ρομπότ, αλλά χωρίς εξωτερικούς αισθητήρες και τεχνητή νοημοσύνη. Στη 2η γενιά (1980- μέσα δεκαετίας τού 1990), χάρη στον έλεγχο τών μικροϋπολογιστών, τα ρομπότ ήταν προγραμματιζόμενα, αφορούσαν συστήματα όρασης, καθώς και αισθητήρες αφής, θέσης και πίεσης. Στην 3η (στα μέσα τής δεκαετίας τού 1990 και εντεύθεν), έγιναν πιο ευκίνητα και αυτόνομα, ικανά να αναγνωρίσουν και να συνθέσουν ομιλία, με ενσωματωμένα συστήματα πλοήγησης ή τηλεχειριζόμενα και με Τ.Ν. Τέλος, κατά την 4η (ή την 5η), που αφορά το παρόν και το άμεσο μέλλον, συζητούμε για εμπορικά ρομπότ, ικανά να αποκτούν διάφορα ανθρώπινα χαρακτηριστικά (με την έρευνα να επικεντρώνεται στα συναισθήματα, το χιούμορ κ.α.), βλ. S. Gibilisco, Concise Encyclopedia of Robotics, McGraw-Hill, New York 2003, σσ. 268-70. Report of COMEST, ό.π., σ. 12.

20. Η αλήθεια είναι ότι εκτός από την είσοδο τής Τ.Ν. στην καθημερινότητά μας, σταδιακά πολλά συστήματα αυτοματισμού έχουν εδραιώσει την παρουσία τους σε αυτήν, όπως λ.χ. οι φωτεινοί σηματοδότες στους δρόμους.

21. Βλ. S. Gibilisco, Concise Encyclopedia, ό.π., σ. 320. Robotics, ό.π., σ. 7. R. Vepa, Biomimetic Robotics. Mechanisms and Control, Cambridge University Press, Cambridge 2009, σσ. 20-1, 55 κ.ε. I. Barabás et als., “Current challenges in autonomous driving”, IOP Conf. Ser.: Mater. Sci. Eng. 252 (2017), σσ. 5, 7. Developments in Robotics and Roboethics, ό.π., σσ. 7, 15, 19, 24-30, 33-5. Report of COMEST, ό.π., σσ. 4-5, 9-11, 22, 28-37, 42-3, 50-5. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, IEEE, 2019, σσ. 160. P. J. Opio, “Robotics and the Transformation of Economic Dynamics”, στο: V. Paglia – R. Pegoraro (eds.), Robo-ethics. Humans, Machines, and Health, Proceedings of the XXV General Assembly of Members, Pontifical Academy for Life, Rome 2020, σσ. 148-9.

22. Βλ. S. Gibilisco, Concise Encyclopedia, ό.π., σσ. 32. R. Vepa, Biomimetic Robotics, ό.π., σσ. 20-31, P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., 39-50. J. Zhu et als., “An Adaptive Component Model for Autonomous Mobile Robots”, στο: Tzuu-Hseng S. Li et als. (eds.), Next Wave in Robotics, Proceedings of 14th FIRA RoboWorld Congress, FIRA 2011, Kaohsiung, Taiwan, August 26-30, 2011, Springer, Berlin/Heidelberg 2011, σσ. 8-15. Developments in Robotics and Roboethics, ό.π., σσ. 7-10, 15, 26, 29-35. Report of COMEST, ό.π., σσ. 4-5, 9-12, 15-20, 25-31, 37-43, 46-55. European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, European Commission, Luxembourg 2018. The IEEE Global Initiative, ό.π., passim.

23. Βλ. Report of COMEST, ό.π., σσ. 13, 34. The IEEE Global Initiative, ό.π., σσ. 57. K. Honda, “Use of Robots in Healthcare: the Japanese Experience and the Relevance of Culture”, στο: V. Paglia – R. Pegoraro (eds.), Robo-ethics, ό.π., σσ. 266, 270-6.

24. Βλ. Report of COMEST, ό.π., σσ. 40-1. F. Bardziński, “Between Bioconservatism and transhumanism: In search of a third way”, Ethics in Progress 6, 2 (2015), σσ. 153-63.

25. Με την έννοια τής δράσης και τής λήψης μέτρων για την αποφυγή ή τη μείωση κάθε βλάβης, είτε απειλής για την ανθρώπινη ζωή ή την υγεία και λειτουργίας τών μηχανών που θίγουν ανθρώπινα δικαιώματα ή θα τελούν σε βάρος τών γενεών τού παρόντος και τού μέλλοντος.

26. Λ.χ. με μηχανισμούς αυτοεξαίρεσης (opt-out/kill switches), βλ. Committee of Legal Affairs of the European Parliament (JURI), Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), European Parliament, Brussels 2016, σσ. 18. Developments in Robotics and Roboethics, ό.π., σσ. 19. Report of COMEST, ό.π., σσ. 38-9.

27. Για την επίκληση βιοηθικών αρχών σχετικά με τη συνύπαρξη ανθρώπων και έξυπνων μηχανών γενικά βλ. S. Gibilisco, Concise Encyclopedia, ό.π., σσ. 47-8, 302. G. Veruggio – F. Operto, “Roboethics: social and ethical implications of robotics”, στο: B. Siciliano – O. Khatib (eds.), Springer Handbook of Robotics, Springer, London 2008, σσ. 1499-1524. P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., M. Anderson – S. L. Anderson (eds.), Machine Ethics, Cambridge University Press, Cambridge 2011. Developments in Robotics and Roboethics, ό.π., σσ. 15, 22-35. Report of COMEST, ό.π., σσ. 6-8, 36-64, European Group on Ethics, ό.π., σσ. 13-20. The IEEE Global Initiative, ό.π.

28. Βλ. G. Veruggio – F. Operto, “Roboethics: social and ethical implications of robotics”, ό.π., σσ. 1501-2. P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., σσ. 46-8. M. Anderson – S. Anderson (eds.), Machine Ethics, ό.π., Report of COMEST, ό.π., σσ. 7, 37, 43-5. The IEEE Global Initiative, ό.π., σσ. 36, 46, 64-5, 178-9.

29. Βλ. S. Gibilisco, Concise Encyclopedia, ό.π., σσ. 9-10, 153, 325. G. Veruggio – F. Operto, “Roboethics…”, ό.π., σ. 1500. V. d. Poel, “Why New Technologies Should Be Conceived as Social Experiments”, Ethics, Policy & Environment 16, 3 (2013), σσ. 352-5. Report of COMEST, ό.π., σσ. 5-6, 9, 11-2, 29, 32, 35, 40-2, 50, 54-5. European Group on Ethics, ό.π., σσ. 9-10. Developments in Robotics and Roboethics, ό.π., σσ. 19, 30-4. The IEEE Global Initiative, ό.π., σσ. 37, 41, 85-6, 99-101, 255. Είναι πολύ σημαντικό σχετικά ότι χιλιάδες σημαίνοντες επιστήμονες Τ.Ν. υπέγραψαν δήλωση μη συμμετοχής σε έρευνα για τα αυτόνομα όπλα· βλ. εδώ.

30. Βλ. D. Song, K. Goldberg, and N. Y. Chong, “Networked Telerobots”, στο: B. Siciliano – O. Khatib (eds.), Springer Handbook of Robotics, ό.π., σσ. 769. M. Hägele, K. Nilsson, J. N. Pires, “Industrial Robotics”, στο: B. Siciliano – O. Khatib (eds.), ό.π., σ. 975. H. F. M. V. d. Loos – D. J. Reinkensmeyer, “Rehabilitation and Health Care Robotics”, ό.π., σ. 1245. A. Bicchi, M. A. Peshkin, and J. E. Colgate, “Safety for Physical Human–Robot Interaction”, ό.π., σ. 1345. G. Veruggio – F. Operto, “Roboethics…”, ό.π., σσ. 1506-7, 1519. Committee of Legal Affairs, ό.π., σ. 13. Rathenau Instituut, Human rights in the robot age: Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality, Rathenau Instituut, Hague 2017. Report of COMEST, ό.π., σσ. 38-9. The IEEE Global Initiative, ό.π., σσ. 26, 136-7, 186, 273.

31. Βλ. G. Veruggio – F. Operto, “Roboethics…”, ό.π., σσ. 1499, 1503, 1507-9. P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., Anderson – S. L. Anderson (eds.), Machine Ethics, ό.π., Committee of Legal Affairs, ό.π., Developments in Robotics and Roboethics, ό.π., σσ. 4-6, 9-10, 14, 22, 29-30, 33-5. Report of COMEST, ό.π., σσ. 6-9, 21-2, 30, 39-40, 46, 49-50, 54-5. European Group on Ethics, ό.π., σσ. 5, 10-2, 16-8, 22. The IEEE Global Initiative, ό.π., passim.

32. Βλ. P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., σσ. 48. Developments in Robotics and Roboethics, ό.π., σσ. 14-5, 19, 24, 27. Report of COMEST, ό.π., σσ. 6, 38, 40, 51. European Group on Ethics, ό.π., σσ. 7, 20. The IEEE Global Initiative, ό.π., σσ. 51, 69, 76, 81, 134, 215.

33. Βλ. Veruggio – F. Operto, “Roboethics…”, ό.π., σσ. 1505-7, 1521. P. Lichocki, P. Kahn Jr, and A. Billard, ό.π., σ. 48. Report of COMEST, ό.π., σσ. 38-9. Developments in Robotics and Roboethics, ό.π., σσ. 4, 23, 35. The IEEE Global Initiative, ό.π., σσ. 45, 76, 129-31.

34. Βλ. Μ. Μπεκριδάκης, «Machina ex Deo: Στοχασμοί γύρω από το θεολογικό πυρήνα τής Σύγχρονης Τεχνολογίας», στο: Δ. Γερούκαλης (επιμ.), Μετάνθρωπος. Ζώντας σ’ έναν ψηφιακό κόσμο, εκδ. Αρμός, Αθήνα 2018, σ. 110.

35. Βλ. Developments in Robotics and Roboethics, ό.π., σσ. 34-5.

36. Βλ. S. J. Marcus (ed): Neuroethics: Mapping the Field, Conference Proceedings, The Dana Foundation, New York 2002. W. Glannon, Bioethics and the Brain, Oxford University Press, Oxford 2007, σσ. 4, Θ. Ντινόπουλος, Νευροηθική, Επιστημονικές Εκδόσεις Παρισιάνου, Αθήνα 2008, σσ. vi-vii.

37. Βλ. R. L. Fischbach, “Foreword”, στο: S. J. Ackerman (ed.), Hard Science, Hard Choices, Dana Press, New York 2006, σσ. xiii. Introduction to Advances in Neuroscience and their Ethical Implications, εδώ.

38. Η αποτελεσματικότητα αυτών τών ερευνών είναι εντυπωσιακή: Έχουν συσχετισθεί επιτυχώς συγκεκριμένες εγκεφαλικές δομές με την έκφραση ψυχικών προδιαθέσεων: για παράδειγμα, διαπιστώθηκε με απεικονιστικές μελέτες ότι άτομα τής λευκής φυλής που αντικρίζουν φωτογραφίες ατόμων τής μαύρης φυλής αναπτύσσουν μεγαλύτερη δραστηριότητα τής αμυγδαλής, δηλαδή τής περιοχής τού κροταφικού λοβού που σχετίζεται με τα αισθήματα φόβου και επιθετικότητας. Η ίδια δραστηριότητα δεν παρατηρείται στη θέα μαύρων με τους οποίους οι συμμετέχοντες στο πείραμα ήταν περισσότερο εξοικειωμένοι, λ.χ. τον Martin Luther King ή μαύρους πρωταγωνιστές τού Holywood. Bλ. E. Phelps et als, “Performance on Indirect Measures of Race Evaluation Predicts Amygdala Activation”, Journal of Cognitive Neuroscience 12 (2000), σσ. 5, 729- 38, N. Levy, Neuroethics, Challenges for the 21st Century, Cambridge University Press, Cambridge 2007, σσ. 139, 147. J. Rosen, “The Brain on the Stand”, The New York Times (March 11, 2007), http://tinyurl.com/3ov2279, Θ. Ντινόπουλος, Νευροηθική, ό.π., σσ. 20-1, 65, 77, 98, 107-8. Θ. Τσώλης, «Ντοπάρεται ο εγκέφαλος;», «εφημ. Το Βήμα», 27-1-2008, H6. J. A. Seaman, “Your Brain on Lies: Deception Detection in Court”, στο: L. S. M. Johnson, K. S. Rommelfanger (eds.), The Routledge Handbook οf Neuroethics, Routledge, New York 2018, σ. 199. P. R. Wolpe, “Neuroprivacy and Cognitive Liberty”, ό.π., σσ. 218-20.

39. Βλ. Introduction to Advances, ό.π., 306-32. D. B. Fischer, R. D. Truog, “When bright lines blur: Deconstructing distinctions between disorders of consciousness”, στο: J. Illes, S. Hossain (eds.), Neuroethics: Anticipating the Future, Oxford University Press, Oxford 2017, σσ. 305-32. J. L. Bernat, “Brain death and the definition of death”, ό.π., σσ. 336-66. E. Racine, M. Sample, “The Competing Identities of Neuroethics: Remarks on Theoretical and Methodological Assumptions and Their Practical Implications for the Future of Neuroethics”, στο: L. S. M Johnson, K. S. Rommelfanger (eds.), ό.π., σ. 9. T. Fukushi, et als., “Neuroethics in Japan”, ό.π., σσ. 444-5.

40. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 98, 102-3. Introduction to Advances, ό.π. Σ. Μανουσέλης, «Νευροηθική: αναζητώντας τις ρίζες τού καλού και τού κακού», «εφημ. Ελευθεροτυπία», 20-2-2010. B. D. Earp, T. Douglas, and J. Savulescu, “Moral Neuroenhancement”, στο: L. S. M Johnson, K. S. Rommelfanger (eds.), ό.π., σσ. 166-79.

41. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 98, 101, 105-6, 110. Introduction to Advances, ό.π. Σ. Μανουσέλη, ό.π. F. Jotterand, “Cognitive enhancement of today may be the normal of tomorrow”, στο: J. Illes, S. Hossain (eds.), ό.π., σσ. 411-25. Αυτή η τάση, τής οποίας ορισμένες πτυχές ισοδυναμούν με ένα κυριολεκτικά «πνευματικό ντόπινγκ», ονομάζεται «κοσμητική νευροεπιστήμη» και γίνεται όλο και πιο διαδεδομένη στις Η.Π.Α. Εκεί λ.χ. είναι γνωστό ότι αρκετοί γονείς χορηγούν στα παιδιά τους ουσίες για να αυξηθούν οι επιδόσεις τους κατά τις εξετάσεις τους σε φημισμένα Πανεπιστήμια (στην Ελλάδα η αντίστοιχη τάση κινείται για την ώρα σε χαμηλά ποσοστά, με αυξητικές τάσεις πάντως)· βλ. M. S. Gazzaniga, The Ethical Brain: The Science of Our Moral Dilemmas, HarperCollins, New York 2006, σσ. 71-86· Θ. Ντινόπουλος, Νευροηθική, ό.π., σσ. 98, 105-6· Μ. Τσιμιτάκης, Κοσμετική ψυχοφαρμακολογία και Νευροηθική, εδώ. A. Chatterjee, “Cosmetic Neurology and the Ethics of Enhancement”, στο: L. S. M Johnson, K. S. Rommelfanger (eds.), ό.π., σσ. 121-8. Τη νέα αυτή νοοτροπία και τις ανατροπές που εισάγει στο επίπεδο τής κοινωνικής ηθικής σατιρίζει ο διάσημος Αμερικανός κωμικός John Morrel στο πρόγραμμά του, αναρωτώμενος: «Η μητέρα μου παίρνει Prozac, ο μικρός μου αδερφός Ritalin και ο πατέρας μου Viagra. Εγώ γιατί να μην τη βρω με ecstasy;»· βλ. Μ. Τσιμιτάκης, ό.π.

42. Λ.χ. με την τεχνική fMRI (Functional Magnetic Resonance Imaging – Λειτουργική Απεικόνιση Μαγνητικού Συντονισμού), μία από τις πλέον διαδεδομένες μεθόδους εγκεφαλικής απεικόνισης, μελετώνται οι μεταβολές τής ροής τού αίματος στον εγκέφαλο, που συνδέονται με τη λειτουργία τού νευρικού συστήματος. Άλλες τεχνικές είναι η τομογραφία εκπομπής ποζιτρονίων (ΡΕΤ), η Υπολογιστική Τομογραφία (Computed Tomography), και –παλαιότερα– το ηλεκτροεγκεφαλογράφημα ή το μαγνητοεγκεφαλογράφημα.

43. Βλ. K. L. Kinnear, Childhood Sexual Abuse, ΑΒC-CLIO, Santa Barbara, 2007, σσ. 47, 55, 63-4, S. v. Slyke, G. Waldo, and W. Bales, “Hit ’em where it Hurts: Monetary and Nontraditional Punitive Sanctions”, στο: S. G. Shoham, O. Beck, and M. Kett (eds.), International Handbook of Penology and Criminal Justice, CRC Press, Boca Raton 2008, σσ. 105, 139-44, 151, Μ. Τσιμιτάκης, ό.π., D. Grubin, A. Beech, “Chemical castration for sex offenders”, BMJ 340 (2010), c74, S. Vaillancourt, Chemical Castration: How a Medical Therapy Became Punishment and the Bioethical Imperative to Return to a Rehabilitative Model for Sex Offenders, MA Thesis, Dec. 2012, wakespace.lib. wfu.edu/bitstream/handle/ 10339/37658/ Vaillancourtwfu_0248M_10359.pdf, T. Douglas, et als., “Coercion, Incarceration, and Chemical Castration: An Argument From Autonomy”, Journal of Bioethical Inquiry, 10, 3 (2013), σσ. 393-405, J. McMillan, “The kindest cut? Surgical castration, sex offenders and coercive offers”, Journal of Medical Ethics 40 (2014), σσ. 583-90. B. D. Earp, T. Douglas, and J. Savulescu, ό.π., σσ. 167. Βέβαια, έχουν εκφρασθεί και αντιρρήσεις για την ηθική και νομική βάση αυτής τής μεθόδου, με περισσότερο εμφατική αυτή τής Ευρωπαϊκής Επιτροπής για την Πρόληψη τών Βασανιστηρίων (European Committee for the Prevention of Torture, ECPT), βλ. European Committee for the Prevention of Torture and Inhuman or Degrading Treatment or Punishment (2009, February 5). Report to the Czech government on the visit to the Czech Republic carried out by the [CPT] from 25 March to 2 April 2008, εδώ, European Committee for the Prevention of Torture and Inhuman or Degrading Treatment or Punishment (2012, February 22). Report to the German government on the visit to Germany carried out by the [CPT] from 25 November to 7 December 2010, εδώ. Σε περιπτώσεις ατόμων με άκρατη επιθετικότητα ακόμη, λόγω ανωμαλιών στην εγκεφαλική δραστηριότητα, που χειροδικούν καθημερινά στους συγγενείς τους, οι τελευταίοι ζητούν ιατρική παρέμβαση (βηματοδότηση τού εγκεφάλου), ώστε να απαλλαγούν από το καθημερινό τους μαρτύριο. Αυτό μπορεί να είναι το αντικείμενο ειδικών επιτροπών, που ήδη έχουν συσταθεί σε κάποιες χώρες όπως οι Η.Π.Α. Και στη χώρα μας έχει δημιουργηθεί μία τέτοια επιτροπή μέσα στον Ευαγγελισμό, αλλά υπολειτούργησε λόγω τής μεγάλης επιφύλαξης που διακατέχει ακόμη τους γιατρούς και την κοινωνία σχετικά με το θέμα· βλ. Θ. Τσώλης, «Ντοπάρεται ο εγκέφαλος;», ό.π.

44. Βλ. J. Rosen, “The Brain on the Stand”, ό.π. Τον Αύγουστο τού 1966, στις Η.Π.Α., ο Charles Whitman σκότωσε τη σύζυγό του και τη μητέρα του και στη συνέχεια ανέβηκε σε ένα ψηλό κτήριο και άρχισε να πυροβολεί αδιακρίτως σκοτώνοντας 14 ακόμη άτομα, προτού πέσει και ο ίδιος νεκρός από τα πυρά τής Αστυνομίας. Προηγουμένως είχε αφήσει ένα σημείωμα που έλεγε: «δεν μπορώ να αναφέρω κανένα λογικό επιχείρημα για τις πράξεις μου». Η νεκροψία έδειξε αργότερα ότι η πιθανότερη … λογική αιτία για την πρόκληση τόσων θανάτων ήταν ένας όγκος στον εγκέφαλο τού δράστη, βλ. Θ. Τσώλης, ό.π., A. Lamparello, “Using Cognitive Neuroscience to Predict Future Dangerousness”, Columbia Human Rights Law Review 42 (2011) σσ. 481, 496-9, D. Eagleman, “The Brain on Trial”, The Atlantic, July/August 2011, εδώ. Σε μία άλλη περίπτωση, ο Ruben Gur, Καθηγητής Ψυχολογίας τής Ιατρικής Σχολής τού Πανεπιστημίου τής Πενσυλβάνια, ο οποίος χρησιμοποιεί σάρωση με ΡΕΤ, κλήθηκε να εξετάσει τον εγκέφαλο τού καταδικασμένου σε θάνατο Bobby Joe Long, κατά συρροήν βιαστή και δολοφόνου. Αυτό που κατέθεσε ήταν ότι η αμυγδαλή τού Long είχε καταστραφεί από ένα δυστύχημα με μοτοσικλέτα, το οποίο είχε συμβεί παλαιότερα και τον είχε ρίξει σε κώμα. Πράγματι, το πρώτο έγκλημα τού Long είχε διαπραχθεί, αφού ο Long συνήλθε από το κώμα (χωρίς ωστόσο να αλλάξει κάτι στη δικαστική απόφαση για τον Long)… Ο R. Gur επιπλέον θεωρεί ότι στους εφήβους η ανάπτυξη τών νευρώνων τού προμετωπιαίου φλοιού δεν είναι ακόμη πλήρης, όπως συμβαίνει με τους ενήλικες, όποτε είναι περισσότερο επιρρεπείς στη διάπραξη αδικημάτων. Συντέλεσε έτσι, μαζί με άλλους, στην απόφαση τού Ανώτατου Δικαστηρίου τών Η.Π.Α. να μην επιβάλλεται η εσχάτη τών ποινών σε δράστες ηλικίας κάτω τών 18 ετών. Βλ. A. Ortiz, “Cruel and Unusual Punishment: The Juvenile Death Penalty: Adolescence, Brain Development and Legal Culpability”, American Bar Association: Juvenile Justice Center, Jan. 2004, J. Rosen, “The Brain on the Stand”, ό.π., D. Bishop, “Juvenile Transfer in United States”, στο: J. Junger-Tas, F. Dünkel (eds.), Reforming Juvenile Justice, Springer, New York 2009, σ. 95, S. Morse, “Introduction”, στο: S. Morse, A. Roskies (eds.), A Primer on Criminal Law and Neuroscience: A Contribution of the Law and Neuroscience Project, Oxford University Press, Oxford/New York 2013, σ. xvi. Ορισμένες έρευνες επίσης έχουν δείξει ότι άτομα που είχαν διαπράξει φόνο ανέδειξαν σημαντικό έλλειμμα στη λειτουργικότητα τού προμετωπιαίου εγκεφαλικού φλοιού που συνδέεται με την ικανότητα στον έλεγχο τών παρορμήσεων, στην εκτίμηση αβέβαιων κινδύνων και στην αξιολόγηση πιθανών αρνητικών συνεπειών τών πράξεών τους. Γι’ αυτό και στις Η.Π.Α. η υπεράσπιση κατηγορουμένων για ειδεχθή εγκλήματα αιτείται συχνά την αποδοχή από τη δικαστική διαδικασία μαγνητικών τομογραφιών τού εγκεφάλου τών θυτών, που παρουσιάζουν αλλοιώσεις, οι οποίες, όπως υποστηρίζουν, δικαιολογούν τις πράξεις τους. Καθώς δεν υπάρχει ασφαλής συσχετισμός μεταξύ τών ευρημάτων τής έρευνας και τής ανθρώπινης συμπεριφοράς, οι αιτήσεις αυτές δεν γίνονται κατ’ αρχήν δεκτές, ωστόσο επηρεάζουν τη βαρύτητα τών αποφάσεων που λαμβάνονται, κάτι που θεωρείται ήδη μία τομή στην απόδοση δικαιοσύνης. Για τους λόγους αυτούς, αξίζει οπωσδήποτε να σημειωθεί επίσης ότι στις Η.Π.Α. επενδύονται μεγάλα ποσά σε προγράμματα διερεύνησης τού ρόλου τού εγκεφάλου στην πραγματοποίηση εγκληματικών πράξεων. Στα προγράμματα αυτά συμμετέχουν έγκριτοι νευροεπιστήμονες, φιλόσοφοι αλλά και δικαστικοί, ώστε να διαπιστωθούν οι συνέπειες που προκύπτουν για το δικαστικό σύστημα τής χώρας λόγω τής αλματώδους εξέλιξης τών νευροεπιστημών. Ωστόσο, οφείλουμε να σημειώσουμε ότι υπάρχουν στην επιστημονική κοινότητα φωνές, οι οποίες παραμένουν επιφυλακτικές απέναντι στην αξιοπιστία τών νευροαπεικονιστικών δεδομένων και αντιτίθενται στην «εισβολή» αυτή τών νευροεπιστημονικών δεδομένων στις νομικές διαδικασίες, θεωρώντας ότι τα άτομα τών οποίων η απεικόνιση τού εγκεφάλου προδίδει λειτουργικές διαταραχές εξακολουθούν να είναι πλήρως υπεύθυνα για τις πράξεις τους («οι άνθρωποι εγκληματούν, όχι ο εγκέφαλός τους», όπως ισχυρίζονται). Βλ. D. Kennedy, “Neuroscience and Neuroethics”, Science 306, 5695 (15 Oct. 2004), σ. 373. J. Rosen, ό.π. Θ. Ντινόπουλος, ό.π., σσ. 84-91. Θ. Τσώλης, ό.π. O. Jones, “Foreword”, στο: S. Morse, A. Roskies (eds.), A Primer on Criminal Law, ό.π. M. Gazzaniga, The Ethical Brain, ό.π., σσ. 87-144. W. Sinnott-Armstrong et als., “Brain Images as Legal Evidence”, Episteme 5, 3 (2008), σσ. 359-73. S. J. Morse, “Lost in Translation? An Essay on Law and Neuroscience”, Law and Neuroscience 13 (2010), σσ. 529-62. V. Hughes, “Science in Court: Head case”, Nature 464 (2010), σσ. 340-2. H. Mayberg, “Does Neuroscience Give Us New Insights Into Criminal Responsibility?», στο: M. S. Gazzaniga, J. S. Rakoff (eds.), A Judge’s Guide to Neuroscience: A Concise Introduction, Sage Center for Study of Mind, University of California, Santa Barbara 2010, σσ. 37-41. S. Morse, “Introduction», ό.π. T. A. Green, Freedom and Criminal Responsibility in American Legal Thought, Cambridge University Press, New York 2014, σ. 448 κ.ε. V. Gray Hardcastle, “My Brain Made Me Do It? Neuroscience and Criminal Responsibility” στο: L. S. M. Johnson, K. S. Rommelfanger (eds.), ό.π., σσ. 185-94. J. A. Seaman, “Your Brain on Lies…», ό.π., σσ. 198-211.

45. Βλ. Θ. Ντινόπουλος, ό.π., σ. 29-30, 35, 70-2. A. Chatterjee, “Cosmetic Neurology and the Ethics of Enhancement”, ό.π., σσ. 122-4, 135-40. Ήδη, εδώ και περίπου δύο δεκαετίες έχει ανοίξει μία συζήτηση σχετικά με το Σύνδρομο Ψευδούς Ανάμνησης (False Memory Syndrome). Μολονότι έχουν αναγνωρισθεί περιπτώσεις δημιουργίας αναμνήσεων που δεν αντιστοιχούν σε πραγματικά γεγονότα και σε ορισμένα τέστ εντοπίζονται στο 1/4 ή και στο 1/3 τών περιπτώσεων, το Σύνδρομο αυτό δεν έχει αναγνωρισθεί ως διαταραχή ούτε οι ψευδείς αναμνήσεις αναγνωρίζονται πάντοτε ως τέτοιες. Το ενδιαφέρον δεν είναι μόνο θεωρητικό, αλλά συχνά μετατοπίζεται σε δικαστικές αίθουσες σε ζητήματα ασφαλιστικών αποζημιώσεων ή σε ζητήματα σεξουαλικής κακοποίησης παιδιών κ.α. Βλ. E. Loftus, K. Ketchum, The Myth of Repressed Memory: False Memories and Allegation of Sexual Abuse, St. Martin's Press, New York 1994, Ε. Loftus, “Creating False Memories”, Scientific American 277, 3 (Sep. 1997), σσ. 70-5, M. J. Grinfeld, “Recovered Memory Lawsuit Sparks Litigation”, Psychiatric Times (Dec. 1999), σ. 1, A. Wilson, “War & Remembrance”, The Orange County Register (Nov. 3, 2002), M. Garry, H. Hayne (eds.), Do Justice and Let the Sky Fall: Elizabeth F. Loftus and Her Contributions to Science, Law, and Academic Freedom, Lawrence Erlbaum Associates, Mahwah, NJ 2006, J. A. Seaman, “Your Brain on Lies…”, ό.π., σ. 210.

46. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 70-1, J. Rosen, ό.π. H λειτουργία τών ανιχνευτών αλήθειας με βάση την εγκεφαλική λειτουργία βασίζεται στη σχετικά απλή διαπίστωση ότι η επινόηση ενός ψέματος ή τής αλλοίωσης μιας αλήθειας είναι μία σύνθετη διαδικασία, η οποία απαιτεί εντονότερη λειτουργία τού εγκεφάλου, ενώ η αλήθεια είναι απλή και επομένως για τη διατύπωσή της ο εγκέφαλος λειτουργεί λιγότερο. Έτσι, στην εκφορά μιας ψευδούς απόφανσης ο εγκέφαλος στέλνει περισσότερο αίμα στον προμετωπιαίο φλοιό, κάτι που είναι δυνατό να διαπιστωθεί. Συγκεκριμένα, με την τεχνική fMRI ανιχνεύεται η διαφορετική μαγνητική συμπεριφορά που επιδεικνύουν τα μόρια τής αιμοσφαιρίνης στα ερυθρά αιμοσφαίρια τού αίματος, ανάλογα με την ποσότητα οξυγόνου που περιέχουν. Η μεγαλύτερη περιεκτικότητα οξυγόνου αντιστοιχεί από την πλευρά της σε εκείνες τις περιοχές τού εγκεφάλου που αναπτύσσουν μεγαλύτερη δραστηριότητα. Ήδη στις Η.Π.Α. έχουν αρχίσει να δραστηριοποιούνται εταιρείες που προσφέρουν υπηρεσίες ανίχνευσης ψεύδους βάσει μετρήσεων τής εγκεφαλικής δραστηριότητας. Εκτός από τη χρήση τής τεχνικής fMRI, έχει αναπτυχθεί και η τεχνική p300, η οποία καταγράφει τις συχνότητες που εκπέμπονται από την εγκεφαλική δραστηριότητα και εντοπίζονται ασυνήθιστες εκπομπές κατά την επίδειξη ορισμένων εικόνων. Βλ. A. Kozel et als, “A Replication Study of the Neural Correlates of Deception Frank”, Behavioral Neuroscience 118, 4 (2004) σσ. 852-6, J. Rosen, ό.π., L. Greenemeier, “Are You a Liar? Ask Your Brain”, Scientific American (Nov. 15, 2007), εδώ, V. Hughes, “Science in Court: Head case”, ό.π., H. Greely, “Mind Reading, Neuroscience, and the Law”, στο: S. Morse, A. Roskies (eds.), A Primer on Criminal Law, ό.π., σσ. 129-30, K. M. Ramos, W. J. Koroshetz, “Integrating ethics into neurotechnology research and development: The US National Institutes of Health BRAIN Initiative”, στο: J. Illes, S. Hossain (eds.), ό.π., σ. 145, J. A. Seaman, “Your Brain on Lies…”, ό.π., σσ. 198-211. Εκφράζεται επίσης η άποψη ότι η απόφανση που αφορά τον εαυτό μας είναι διαφορετική από αυτή που αφορά άλλους, καθώς ενεργοποιούνται διαφορετικές εγκεφαλικές περιοχές, κάτι που εισάγει τουλάχιστον μία επιπλέον παράμετρο στο ζήτημα τής αλήθειας που λέμε και τής ανίχνευσής της· βλ. J. Rosen, ό.π.

47. Ο προβληματισμός που έχει αναπτυχθεί σχετικά διευρύνεται ολοένα. Πολλοί κάνουν λόγο για την ανάγκη διασφάλισης τής γνωστικής ελευθερίας (cognitive liberty), δηλαδή τού δικαιώματος αυτοκαθορισμού τής συνείδησης και τής πνευματικής λειτουργίας γενικότερα· βλ. Journal of Cognitve Liberties, vols 1-4, Spring, 1999-2004. J. Rosen, ό.π. W. Sententia, “Neuroethical Considerations: Cognitive Liberty and Converging Technologies for Improving Human Cognition”, Annals of the New York Academy of Sciences 1013 (May 2004), σσ. 221-8. Θ. Τσώλης, ό.π. J. C. Bublitz, R. Merkel, “Crime Against Minds: On Mental Manipulations, Harms and a Human Right to Mental Self-Determination”, Criminal Law and Philosophy 8, 1 (Jan. 2014), σσ. 51-77. Center for Cognitive Liberty & Ethics, www.cognitiveliberty.org. J. A. Seaman, “Your Brain on Lies…”, ό.π., σσ. 206-9. P. R. Wolpe, “Neuroprivacy and Cognitive Liberty”, ό.π., σσ. 214-22. R. H. Purcell, K. S. Rommelfanger, “Neuroscience Online: Real Ethical Issues in Virtual Realms”, ό.π., σσ. 265-6.

48. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 65, 70, 95-6, 110-1. J. A. Chandler, “The impact of neuroscience in the law: How perceptions of control and responsibility affect the definition of disability”, στο: J. Illes, S. Hossain (eds.), ό.π., σσ. 570-3. V. Gray Hardcastle, "My Brain Made Me Do It? Neuroscience and Criminal Responsibility”, ό.π., σσ. 187-93. L. S. M. Johnson, "Chronic Traumatic Encephalopathy: Ethical, Legal, and Social Implications”, ό.π., σσ. 233-4. Ο καθηγητής Εγκληματολογίας και Ψυχιατρικής στο Πανεπιστήμιο τής Πενσυλβάνια Adrian Raine (ο ίδιος αυτοαποκαλείται νευροεγκληματολόγος), με έρευνες που πραγματοποίησε στη δεκαετία τού ’80 και αργότερα, επανέφερε παλαιότερες απόψεις, ισχυριζόμενος πως εντόπισε εγκεφαλικές δυσλειτουργίες σε άτομα με βίαιη συμπεριφορά. Αναγνώρισε μεν και την ισχυρή συνδρομή κοινωνικών παραγόντων (φτώχεια, συνθήκες διαβίωσης, έλλειψης παιδείας κ.λπ.) που οδηγούν στην εκδήλωση εγκληματικής δραστηριότητας, αλλά θεωρεί ότι περιβαλλοντικοί παράγοντες μπορούν να αλλάξουν τις εγκεφαλικές δομές (μέσω επιγενετικών διαδικασιών). Βλ. J. Rosen, ό.π., A. Raine, The Anatomy of Violence: The Biological Roots of Crime, Pantheon Books, New York 2013, T. Adams, “How to Spot a Murderer’s Brain”, The Guardian (12-5-2013), εδώ.

49. Βλ. Θ. Ντινόπουλος, ό.π., σ. 65-6. E. V. Lang, “No pain no gain: A neuroethical place for hypnosis in invasive intervention”, στο: J. Illes, S. Hossain (eds.), ό.π., σ. 209. E. Racine, M. Sample,“The Competing Identities …”, ό.π., σ. 9-10. J. A. Seaman, “Your Brain on Lies…”, ό.π., σσ. 202. E. Y. Liu, “Neurodiversity, Neuroethics, and the Autism Spectrum”, ό.π., σ. 402.

50. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 31-3. E. Racine, V. Dubljević, “Behavioral and brain-based research on free moral agency: Threatening or empowering?”, στο: J. Illes, S. Hossain (eds.), ό.π., σσ. 395-6. J. Leefmann, E. Hildt, “Neuroethics and the Neuroscientific Turn”, στο: L. S. M Johnson, K. S. Rommelfanger (eds.), ό.π., σσ. 18-9, 22. J. D. Banja, “Moral Reasoning”, στο ίδιο, σσ. 299. Οφείλεται ωστόσο να αναφερθεί, και στο πλαίσιο τής ανάπτυξης τών ερευνών που οδηγούν σε νέους προβληματισμούς (όπως ήδη αναφέραμε), ότι έχει διαπιστωθεί ότι ορισμένες φαρμακευτικές ουσίες είναι σε θέση να μειώσουν υφιστάμενες προκαταλήψεις· βλ. A. Chatterjee, “Cosmetic Neurology…”, ό.π., σ. 122. A. Feltz, E. T. Cokely, “Informing Ethical Decision Making”, στο ίδιο, σ. 313.

51. Με άλλα λόγια, η έκφραση: «εγώ αν δεν το δώ με τα ίδια μου τα μάτια, δεν το πιστεύω» έχει ελάχιστη σημασία στη γλώσσα τής επιστημονικής παρατήρησης τών τελευταίων αιώνων.

52. Βλ. Θ. Ντινόπουλος, ό.π., σ. 33. Σε άλλη περίπτωση, ζητήθηκε από λευκούς να συσχετίσουν εικόνες προσώπων που τους επιδείκνυαν με συγκεκριμένα επίθετα. Παρατηρήθηκε τότε ότι εμφανιζόταν μία αξιοσημείωτη χρονική καθυστέρηση όταν έπρεπε να αποδοθούν σε εικόνες μαύρων θετικά επίθετα και σε εικόνες λευκών αρνητικά επίθετα· βλ. E. Phelps et als, “Performance on Indirect Measures of Race”, ό.π., σ. 730, J. Rosen, ό.π.

53. Σε ένα σύνολο περίπου 75.000 αντίστοιχων περιπτώσεων κατ’ έτος, το ποσοστό είναι ίσως αναλογικά ελάχιστο, περί το 0,053%. Σε απόλυτους αριθμούς όμως, πρόκειται για έναν διόλου ευκαταφρόνητο αριθμό (40) περιπτώσεων, που διακυβεύεται η ζωή, η αξιοπρέπεια, η υπόληψη κ.λπ. ανθρώπων, το μέλλον τών οποίων εξαρτάται από τις προκατασκευασμένες απόψεις κάποιων άλλων· βλ. E. Loftus, Eyewitness Testimony, Harvard University Press, Cambridge MA., 1979, D. L. Schacter, The Seven Sins of Memory; How the Mind Forgets and Remembers, Houghton Mifflin, Boston 2001, σσ. 91- 3, G. L. Wells, E. A. Olson, “Eyewitness Testimony”, Annual Review of Psychology 54 (2003), σσ. 277-95, G. L. Wells, A. Memon, and S. D. Penrod, “Eyewitness Evidence; Improving Its Probative Value”, Psychological Science in the Public Interest 7 (2006), σσ. 45-75, Θ. Ντινόπουλος, ό.π., σ. 30, J. A. Seaman, “Your Brain on Lies…”, ό.π., σσ. 209- 10. Αξίζει επιπλέον να σημειωθεί σχετικά, και όσον αφορά την κοινωνική τουλάχιστον βαρύτητα τού θέματος, ότι στην περίπτωση τού φόνου τού (άοπλου) δεκαοκτάχρονου μαύρου Michael Brown από αξιωματικό τής Αστυνομίας στο Ferguson τών Η.Π.Α. (9 Αυγούστου 2014), που πυροδότησε πλήθος βίαιων επεισοδίων, πολλοί αυτόπτες μάρτυρες έδωσαν εντελώς διαφορετικές μεταξύ τους περιγραφές τού δραματικού γεγονότος· βλ. F. Robles, M. S. Schmidt, “Shooting Accounts Differ as Holder Schedules Visit to Ferguson”, The New York Times, 19-8-2014, εδώ.

54. Βλ. M. R. Banaji, R. Bhaskar, “Implicit Stereotypes and Memory: The Bounded Rationality of Social Beliefs”, στο: D. L. Schacter, E. Scarry (eds.), Memory, Brain, and Belief, Harvard University Press, Cambridge, MA. 2001, σ. 151. J. Rosen, ό.π.

55. Είναι γνωστό ότι η παρουσία διάφορων ασθενειών στον ανθρώπινο οργανισμό (λ.χ. σακχαρώδης διαβήτης, διαταραχές τού θυρεοειδούς αδένα κ.α.) επηρεάζει δραστικά την ανθρώπινη συμπεριφορά, χωρίς ο άνθρωπος που νοσεί να είναι σε θέση να ελέγξει πάντοτε αποτελεσματικά όλες τις αντιδράσεις του ή γίνεται υπερβολικά ευέξαπτος, ευερέθιστος κ.λπ. Ακόμη, προφορικές –για την ώρα– μαρτυρίες αναφέρουν πως ο όσιος Πορφύριος Καυσοκαλυβίτης, γνωστός άλλωστε για τη φιλομάθειά του, ζητούσε την αποστολή επιστημονικών ιατρικών βιβλίων, για να γνωρίζει “πού τελειώνει η αποστολή τού πνευματικού και πού αρχίζει η δουλειά τού γιατρού»: συγκεκριμένα, ήθελε να γνωρίζει σε περιπτώσεις διαταραχών, όπως τής λειτουργίας τού θυροειδούς αδένα, σε ποιο βαθμό η συμπεριφορά οφείλεται σε παρενέργειες τής ασθένειας και κατά πόσο στην ίδια την προαίρεση τού ανθρώπου. Αντίστοιχα, όπως ανέφερε στον γράφοντα ιερέας που θήτευσε πνευματικά σε (μακαριστό πλέον) αγιορείτη ηγούμενο, κάποτε τον ρώτησε κατά πόσον οι σωματικές ασθένειες οφείλονται στην παρουσία τής αμαρτίας. Η απάντηση τού αθωνίτη πνευματικού ήταν αναπάντεχη, μιας και αντέστρεψε πλήρως το ερώτημα: “Σκεφτήκατε ποτέ πάτερ κατά πόσο η αμαρτία μπορεί να προέρχεται από τη σωματική ασθένεια;». Για τη σχέση φυσικού και γνωμικού θελήματος βλ. Α. Σωκράτους, Φύση και Γνώμη κατά τον Άγιο Μάξιμο τον Ομολογητή. Μελέτη στην Ανθρωπολογία και την Χριστολογία τού Αγίου Μάξιμου, χ.έ., Λευκωσία 2011. Γ. Μαντζαρίδης, Χριστιανική Ηθική Ι, Ι. Μ. Μ. Βατοπαιδίου, Άγιο Όρος 2014, σ. 193.

56. Βλ. Θ. Ντινόπουλος, ό.π., σσ. 90-2, Θ. Τσώλης, ό.π. Σε μία –λιγότερο ή περισσότερο ακραία– διατύπωση τού συγγραφέα J. McCrone, “απέχουμε μόλις μία θρόμβωση σε κάποιο αγγείο από το να γίνουμε κάποιοι άλλοι»(!)· βλ. P. Broks, “The Big Questions: What is consciousness?”, New Scientist 2578 (Nov. 18, 2006), σ. 60, Θ. Ντινόπουλος, ό.π., σ. 51.

57. Bλ. Rathenau Instituut, ό.π., σ. 10.

58. Βλ. Π. Τζαμαλίκος, Το Εργαστήριο Φιλοσοφίας και Τεχνολογίας στο Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης, χ.έ., Θεσσαλονίκη 1996, σσ. 67-8.

59. Βλ. Γεν. 1, 31.

60. Πρβλ. “Λογωθείσης τής σαρκός, δια τον τού Θεού Λόγον», Μ. Αθανασίου, Κατά Αρειανών, PG 26, 152.

61. Πρβλ. “Τα φαινόμενα πάντα δείται σταυρού… τα δε νοούμενα πάντα, χρήζει ταφής», Μαξίμου Ομολογητού, Κεφάλαια Σ΄ περί θεολογίας και τής ενσάρκου οικονομίας τού Υιού Θεού, PG 90, 1108. Βλ. και Γ. Μαντζαρίδης, Χριστιανική Ηθική ΙΙ, Ι. Μ. Μ. Βατοπαιδίου, Άγιο Όρος 2015, σσ. 287-308.

62. Βλ. “Human Genome Editing: A Draft Framework for Governance”, World Health Organization, July 3, 2020, εδώ.

63. Βλ. Κλίμαξ 7, 56, PG 88, 813C. Αρχιμ. Σωφρονίου, Αγώνας Θεογνωσίας. Η αλληλογραφία τού Γέροντος Σωφρονίου με τον Δ. Μπάλφουρ, μετάφρ. Αρχιμ. Ζαχαρία, Ιερά Σταυροπηγιακή και Πατριαρχική Μονή Τιμίου Προδρόμου, Έσσεξ 2004, σ. 207.

Δημιουργία αρχείου: 27-1-2021.

Τελευταία μορφοποίηση: 27-1-2021.

ΕΠΑΝΩ