Μπεϋζιανή συλλογιστική: Μέρος 2ο – Singularity και το μέλλον της ανθρωπότητας


[Το δεύτερο μέρος της σειράς των ποστ πάνω στην μπεϋζιανή συλλογιστική εστιάζει σε δύο βασικές μορφές της σχέσης της με την ιδέα του Singularity και γενικότερα τη σχέση της με τα διάφορα σενάρια για το μέλλον της ανθρωπότητας.]

Η ιδέα του Singularity είναι σαφώς παραμελημένη στην Ελληνική μπλογκόσφαιρα, πράγμα που πέρα από τον μυστικισμό που την περικλείει μερικώς αντανακλά την αντιμετώπισή της από την παγκόσμια επιστημονική κοινότητα ως αστεία ή μεταφυσική υπόθεση. Ο Ματθαίος Τσιμιτάκης σε μια εισαγωγή του στο θέμα έγραψε πρόσφατα πως η ιδέα πρεσβεύει πως στο μέλλον “πρόκειται να αναδυθούν οι πρώτες τεχνολογικές οντότητες που θα είναι πιο ευφυείς από τους ανθρώπους, θα μπορούν να αναλάβουν την εξέλιξη τους και θα μας παρασύρουν σε έναν καινούργιο πολιτισμό, τον πολιτισμό του μετά-ανθρώπου“. Αυτό το γεγονός αποκαλείται “Singularity” – μια μοναδική στιγμή στην ιστορία της ανθρωπότητας (και της μετά-ανθρωπότητας). Η αναδυόμενη μετά-ανθρωπότητα αναμένεται να έχει ορισμένα από τα ακόλουθα χαρακτηρηστικά: πληθυσμό μεγαλύτερο του ενός τρισεκατομυρίου, προσδοκόμενο μήκος ζωής μεγαλύτερο των 500 ετών, και ένα μεγάλο μέρος του πληθυσμό με γνωσιακές ικανότητες σημαντικά μεγαλύτερες από το σημερινό μέγιστο επίπεδο μεταξύ άλλων. Διάφοροι υποστηρικτές της ιδέας πιστεύουν πως αυτό μπορεί να συμβεί στα επόμενα 20-50 χρόνια ενώ άλλοι (και ποιο σοβαροί κατά την γνώμη μου) δεν είναι διατεθιμένοι να κάνουν προβλέψεις για τον χρονικό της ορίζοντα. Γράφει ο Ματθαίος: “Το 2005, ο εφευρέτης-μελλοντολόγος Ray Kurzweil έγραψε ένα βιβλίο στο οποίο υποστήριζε ότι χάρη στην εξέλιξη της τεχνητής νουμοσύνης, έως το 2045 θα έχει κατασκευαστεί η πρώτη τέτοια οντότητα δίνοντας το εναρκτήριο λάκτισμα αυτού του πολιτισμού.” Ο Κurzweil φέρνει το γεγονός στα χρονικά περιθώρια που έχουν πολλοί από τους αναγνώστες σε αυτό τον πλανήτη, κάνοντας την υπόθεση μιας εκθετικής πορείας της τεχνολογικής προόδου – μια υπόθεση που έχει χαρακτηριστεί άκρως μη-ρεαλιστική. Για παράδειγμα, ο ιστορικός της τεχνολογίας Vaclav Smil έχει γράψει πως η δεκαετία με την πιο δραματική καινοτομία στην ιστορία της ανθρωπότητας ήταν αυτή του 1880! (η αναφορά εδώ). Το επιχείρημα έχει βάση στην υπόθεση των φθίνουσων αποδόσεων στην ανθρώπινη καινοτομία λόγω της δυσκολίας νέων ανακαλύψεων με την πάροδο του χρόνου μιας και τα λεγόμενα “low hanging fruits” μαζεύονται πρώτα (παρενθετικά, σχετικά θέματα έχουν αναλυθεί με πολύ ενδιαφέρον τρόπο εντός μοντέλων οικονομικής μεγέθυνσης από τον οικονομολόγο Κωνσταντίνο Αλεξανδράκη).

Η ιδέα του Singularity έχει χαρακτηριστεί από πολλούς με ιδιαίτερη δόση κυνισμού ως η “Δευτέρα Παρουσία” / η “Ανάληψη των Πιστών” όπως την φαντασιώνονται computer geeks και nerds. Έχει επίσης παρουσιαστεί ως ιδέα πλησιέστερη στη θρησκευτική πίστη παρά στην επιστήμη. Η γνώμη μου είναι πως οι όποιες ομοιότητες είναι παραπλανητικές και το κυριότερο επιχείρημα εναντια στην άποψη αυτή έγκειται στο γεγονός πως οι υποστηρικτές της ιδέας του Singularity δίνουν μεγάλη έμφαση στην ορθολογική σκέψη και την Μπεϋζιανή συλλογιστική. Η Μπευζιανή συλλογιστική εισέρχεται στην συζήτηση με δύο βασικούς τρόπους: (1) μέσω του Doomsday Argument όπου σύμφωνα με διάφορους ακαδημαϊκούς συμβάλει στην αύξηση της πιθανότητας ενός σεναρίου “αφανισμού” της ανθρωπότητας και (2) στην προσπάθεια εξάλειψης των γνωσιακών προκαταλήψεων του ανθρώπου στην προσπάθεια προσέγγισης του transhumanity. Στην πρώτη περίπτωση, ανακύπτουν ενστάσεις για τις υποθέσεις οι οποίες καθοδηγούν τα αποτελέσματα της Μπεϋζιανής συλλογιστικής ενώ στην δεύτερη περίπτωση, τα πράγματα είναι πιο ξεκάθαρα όπως θα δείξω παρακάτω.

Το Επιχείρημα
Ας αρχίσω με τα προφανή: Μια μεγάλη διαφορά από την θρησκευτική πίστη έγκειται στο γεγονός πως το Singularity αντιμετωπίζεται ως ένα από τα σενάρια για το μέλλον της ανθρωπότητας. Το σενάριο της μετα-ανθρωπότητας ανταγωνίζεται τα σενάρια του οριστικού αφανισμού, της επαναλαμβανόμενης κατάρρευσης και της στασιμότητας/πλατώ (δεν περιγράφω στο ποστ τα σενάρια μιας και είναι σχετικά γνωστά – προτείνω να ρίξετε μια ματιά στο άρθρο του Bostrom). Όπως θα δούμε παρακάτω, συλλογισμοί πάνω στην προοπτική του σεναρίου αφανισμού, για παράδειγμα, δίνουν μια μέσου μεγέθους πιθανότητα (ένα σεβαστό ποσοστό). Ερευνητές στο συγκεκριμένο πεδίο όπως ο Nick Bostrom, για παράδειγμα, δίνουν μια πιθανότητα στο σενάριο του τελικού αφανισμού της τάξης του >25% – που γενικότερα κινείται μεταξύ του 20%-50% (ενώ το σενάριο του στασιμότητας έχει τις χαμηλότερες πιθανότητες). Κάποιοι από τους πρακτικούς λόγους για τους οποίους το σενάριο του Singularity μπορεί να μην γίνει πραγματικότητα θα αναφέρθούν στην πορεία αυτής της σειράς ποστ αλλά για αρχή, ας αναλογιστούμε το σενάριο του τελικού αφανισμού μέσω ενός Μπεϋζιανού συλλογισμού.

Tο Επιχείρημα της Ημέρας της Καταστροφής (Doomsday Argument) έχει στόχο τον προσδιορισμό της πιθανότητας αφανισμού της ανθρωπότητας και έχει ως εξής. Πρώτα θεωρεί το ενδεχόμενο Α, πως ο αφανισμός του ανθρωπίνου είδους θα συμβεί πριν το έτος 2150. Προσδίδοντας ένα πολύ συντηρητικό 1% σε αυτό το ενδεχόμενο, η πιθανότητα του Α γράφεται ως P(A) = 0.01. To complement ενδεχόμενο ΑC είναι συνεπώς πως ο τελικός αφανισμός του ανθρωπίνου είδους δεν θα συμβεί πριν το έτος 2150. Ας αναλογιστούμε επίσης και το ενδεχόμενο Ε: ζω το έτος 2008.
Υπολογίζεται πως μέχρι σήμερα έχουν ζήσει περίπου 50 δισεκατομμύρια άνθρωποι από της αρχές της ανθρωπότητας (H2008 λοιπόν ίσον με 50 δις). Ο πλυθησμός του πλανήτη σήμερα είναι περίπου 5 δις οπότε P2008 = 5×109. Αν το ανθρώπινο είδος αφανιστεί μέχρι το έτος 2150, μια απλή αριθμητική καταδυκνείει πως ένας στους δέκα ανθρώπους που περάσαν από τον πλανήτη έζησαν φέτος. Συνεπώς, η πιθανότητα να έχω ζήσει φέτος με δεδομένο ότι η ανθρωπότητα θα αφανιστεί πριν το 2150 είναι P(E|A) = 5×109/5×1010 = 0.1. Από την άλλη μεριά, αν η ανθρωπότητα περάσει το έτος 2150 και υποθέσουμε πως τα επιτεύγματά μας θα μας οδηγήσουν σε ένα παγκόσμιο πληθυσμό της τάξης του 5×1012, η πιθανότητα να έχω ζήσει φέτος με δεδομένο πως η ανθρωπότητα δεν έχει αφανιστεί το 2150 υπολογίζεται ως P(E|AC) = 5×109/5×1012 = 0.001.

Με τους παραπάνω δύο υπολογισμούς και τα υπάρχοντα δεδομένα μπορούμε να υπολογίσουμε την ‘a posteriori’ πιθανότητα του αφανισμού της ανθρώπινης φυλής πριν το έτος 2150 με την χρήση του κανόνα του Bayes:

P(A|Ε) = [P(A) x P(E|A)] / [P(A) x P(E|A) + P(AC) X P(E|AC)] = (0.01 x 0.1) / (0.01 x 0.1 + 0.99 x 0.001) = 0.5025.

Εν συντομία, λαμβάνοντας υπ’όψιν το γεγονός πως ζούμε φέτος φέρνει την πιθανότητα του αφανισμού της ανθρωπότητας πριν το 2150 από το 1% στο 50.25%! (Παρατήρηση: Με την ίδια συλλογιστική αν κάποιος πιστεύει πως ο τελικός αφανισμός του ανθρωπίνου είδους θα συμβεί πριν το έτος 2150 με πιθανότητα 50%, δηλαδή P(A) = 0.5, η a posteriori πιθανότητα P(A|Ε) εκτινάσσεται στο 0.99, δηλαδή 99%. Αντίστοιχα, ένα ακόμα ποιο συντηρητικό P(A) = 0.001 (ένα τοις χιλίοις, 0.1%), φέρνει την πιθανότητα P(A|Ε) στο 0.091, δηλαδή 9.1%.)

Φυσικά, το ανωτέρο επιχείρημα έχει επιφέρει πολύ σοβαρές αντιδράσεις. Ο όρος ανθρωπότητα υπόκειται στο πρόβλημα του ‘reference class’ και είναι υποκειμενικός. Μπορεί δηλαδή να εσωκλείει μόνο αντιπροσώπους του σημερινού υποείδους μας (Homo sapiens sapiens) ή μόνο το είδος homo sapiens sapiens χωρίς γνώση Η/Υ (χαρακτηριστικός αντιπρόσωπος του είδους ο John McCain). Ή ακόμα και τους μελλοντικούς transhumans που θα προκύψουν από την εξέλιξη του είδους μας. (Παρατήρηση: η a priori πιθανότητα αφανισμού μειώνεται από πολύ υψηλά ποσοστά για τύπους του στυλ McCain σε χαμηλότερα ποσοστά για μετα-ανθρώπους). Αυτή η υποκειμενικότητα περί reference class επηρρεάζει άμεσα την Μπεϋζιανή μεταβολή της ‘a posteriori’ πιθανότητας “αφανισμού” της ανθρωπότητας.

Το Doomsday Argument ουσιαστικά μας αναγκάζει να ρωτήσουμε πότε και υπό ποιές προϋποθέσεις μπορούμε να χρησιμοποιήσουμε ένα μαθηματικό θεώρημα σε προβλήματα του κόσμου μας. Πέρα από το “υπαρξιακό μάθημα” κρίνω πως αποτελεί περίπτωση εφαρμογής που ίσως δεν θα πρέπει να χρησιμοποιείται literally – ως μηχανική λύση κάποιου προβλήματος – λόγω της φύσης των αναγκαίων υποθέσεων για την επεξεργασία της υπόθεσης. Κάποιος θα μπορούσε να ισχυριστεί πως η γνώση του γεγονότος πως 99.9% των ειδών που έχουν περάσει από τον πλανήτη δεν υπάρχουν πλέον θα ήταν αρκετή για μια Μπεϋζιανή αναθεώρηση των a priori πιθανοτήτων προς τα πάνω και πως δεν χρειαζόμαστε το συγκεκριμένο επιχείρημα για να αναθεωρήσουμε το ενδεχόμενο του αφανισμού του είδους μας. Συνεπώς, η προσπάθεια προσδιορισμού της πιθανότητας του αφανισμού της ανθρωπότητας μέσω του Doomsday Argument ίσως αποτελεί νοητική άσκηση στην βάση της. (Κάποιοι μάλιστα ισχυρίζονται πως αποτελεί επίσης και ατυχή άσκηση λόγω του στατιστικού προβλήματος της “προφητείας ex eventu” – τα αντεπιχειρήματα εδώ) .

Ίσως το σημαντικότερο σημείο είναι πως το επιχείρημα μπορεί να ειδωθεί με δύο τρόπους: με μια γερή δόση πεσσιμισμού εκφράζοντας τον οριστικό/τελικό αφανισμό του ανθρώπινου είδους (dinosaur-style) ή με περισσότερη αισιοδοξία (όχι απαραίτητα από όλους), εκφράζοντας την ιδέα της έλευσης της μετα-ανθρωπότητας. Συνεπώς ο τρομακτικός τίτλος του είναι μάλλον ατυχής. Όποια και αν είναι η πραγματικότητα βέβαια, η Μπεϋζιανή συλλογιστική συμβάλλει με ένα δεύτερο άμεσο τρόπο – και πιο ουσιαστικά από το Επιχείρημα – στην πορεία μας προς τα μελλοντικά σενάρια του αφανισμού, επαναλαμβανόμενης κατάρρευσης, στασιμότητας και του transhumanism όπως θα δούμε παρακάτω…

Γνωσιακοί περιορισμοί
Αν συμβεί κάποιος οριστικός αφανισμός του ανθρωπίνου είδους (με τα χαρακτηριστικά που έχει το είδος μας σήμερα, αυτά δηλαδή του homo sapiens sapiens) μπορούμε να υποθέσουμε πως κατά μεγάλη πιθανότητα θα συμβεί κατά λάθος. Σε ένα κόσμο με τεράστιες αβεβαιότητες, χωρίς ιδιαίτερα καλές προοπτικές πρόβλεψης σημαντικών γεγονότων, η λίστα των γνωστών μέχρι σήμερα γνωσιακών μας προκαταλήψεων φαντάζει καταθλιπτικά μεγάλη. Υπό αυτούς τους περιορισμούς και στο πλαίσιο των δεδομένων δυνατοτήτων μας για καταστροφικές εφαρμογές της τεχνολογίας, οι πιθανότητές μας για μακροχρόνια επιβίωση δεν μπορεί να είναι και τόσο μεγάλες. Είναι αρκετά πιθανό πως κάποιος παρανοϊκός ηγέτης θα ξυπνήσει μια μέρα με ιδιαίτερα κακή διάθεση, ή η ανθρωπότητα δεν θα εκτιμήσει σωστά τα περιθώρια εκπομπής διοξειδίου του άνθρακα με αποτέλεσμα την καταστροφική κλιματική μεταβολή, ή τις επιπτώσεις κάποιας νέας μορφής νέας βιοτεχνολογίας κ.ο.κ. Αυτό το λάθος στους υπολογισμούς δεν είναι κάτι που βλέπουμε μόνο σε Χολλυγουντιανές ταινίες καταστροφής – είναι καταγεγραμμένο επιστημονικό εύρημα. Το αξιοσημείωτο είναι πως σημαντικά λάθη σε εκτιμήσεις κάνουν και οι λεγόμενοι “ειδικοί”…

Ήδη από τις αρχές της δεκαετίας του ’70, οι ψυχολόγοι Kahneman kai Tversky έδειχναν πειραματικά πως οι άνθρωποι δεν είναι Μπεϋζιανοί συλλογιστές (ή διαφορετικά, ορθολογικοί). Ο S.J. Gould έχει δηλώσει πως τα μυαλά των ανθρώπων δεν έχουν εξελιχθεί για να ακολουθούν τους κανόνες της θεωρίας πιθανοτήτων. Εν συντομία, ο κόσμος μας είναι σε μεγάλο βαθμό περιορισμένα ορθολογικός και πολύ δύσκολα θα αλλάξουμε μυαλά… Σε ένα πρόσφατο ποστ του, ο blogger computer scientist Scott Aaronson αναφέρει:

… While … [this] kind of singularity is possible, I’m not at all convinced of Kurzweil’s thesis that it’s “near” (where “near” means before 2045, or even 2300). I see a world that really did change dramatically over the last century, but where progress on many fronts (like transportation and energy) seems to have slowed down rather than sped up; a world quickly approaching its carrying capacity, exhausting its natural resources, ruining its oceans, and supercharging its climate; a world where viagra generico, espanolf… millions continue to die for trivial reasons, and democracy isn’t even clearly winning out over despotism; … before we transcend the human condition and upload our brains to computers, a reasonable first step might be to bring the 17th-century Enlightenment to the 98% of the world that still hasn’t gotten the message soundnatural. …

Τα γνωσιακά εμπόδια που παρατηρούμε στο ανθρώπινο είδος με οδηγούν στο συμπέρασμα πως ο εξελικτικός μας δρόμος μάλλον πρέπει να προσδοκάται ως αργή αυξητική πορεία και όχι μια τρομερά γρήγορη άνοδος. Το βασικό ερώτημα που μπορεί να θέσει κανείς είναι: ποια είναι η πιθανότητα πως η ανθρωπότητα δεν θα καταφέρει να φτάσει το σημείο του Singularity πριν γίνει κάποιο τραγικό λάθος. Το έλλειμα που παρουσιάζεται στην ικανότητά μας να σκεφτούμε ορθολογικά μάλλον αυξάνει τις πιθανότητες των σεναρίων τελικού αφανισμού, κατάρρευσης και στασιμότητας ενώ μειώνει την πιθανότητα του σεναρίου της μετα-ανθρωπότητας.

Αλήθεια, κανείς μπορεί να αναρωτηθεί γιατί πρέπει μας νοιάζουν όλα αυτά alternative234… Περα από το πρόσφατο κόλλημά μου με τον Αιδεσιμότατο Thomas Bayes, δέχομαι πως η όλη συζήτηση είναι τρομερά θεωρητική όσον αφορά το μέλλον της ανθρωπότητας και εστιάζει σε ένα χρονικό ορίζοντα για τον οποίο μάλλον λίγοι και συγκεκριμένοι άνθρωποι σήμερα ενδιαφέρονται ιδιαίτερα. Το βασικό στοιχείο βρίσκεται στο πως τα δύο σημεία που περιέγραψα (που εμπλέκουν άμεσα ή έμμεσα Μπεϋζιανούς συλλογισμούς) συγκλίνουν στο συμπέρασμα πως ο αιώνας που διανύουμε είναι ιδιαίτερα σημαντικός για το μέλλον της ανθρωπότητας – τεχνολογικά βρισκόμαστε σε ένα σημείο που ένα λάθος ή μια κακή εκτίμηση σε ένα σημείο του πλανήτη μπορεί να αποτελέσει καταστροφικό για το ανθρώπινο είδος στο σύνολό του – περvώντας από την περίοδο του Ολόκαινου στην περίοδο του Ανθρωποκαίνου cialis generico. Πολλοί κάνουν την γενναία υπόθεση πως αν η ανθρωπότητα καταφέρει να φτάσει στο σημείο του Singularity, η προοπτική της διαιώνισης ενός ανθρώπινου ή του μετά-ανθρώπινου είδους έχει περισσότερες πιθανότητες – μια υπόθεση που σηκώνει βιβλία και όχι ποστ :). Σιγά σιγά, συνειδητοποιούμε πως οι πράξεις μας σήμερα είναι πιο σημαντικές από ποτέ και θα αποκαλύψουν τις προτιμήσεις μας για το πόσες γενεές ανθρώπων (ή μετά-ανθρώπων) μας ενδιαφέρει πραγματικά να διατηρήσουμε… (αυτό το δεύτερο σκέλος με τρομάζει λόγων των γνωσιακών μας περιορισμών). Το μέλλον της (μέτα)ανθρωπότητας θα κριθεί παράλληλα από το σύνολο των αξιών μας και τους γνωσιακούς περιορισμούς που (πρέπει να και ελπίζω πως θα) καταπολεμούμε καθημερινά σε ατομικό επίπεδο αλλά και στο επίπεδο πολιτικής espanolfarmacia, espanolcialis, pharmacie generique.

(…συνεχίζεται)



14 σχόλια


1
Από: buzz

Μπεϋζιανή συλλογιστική: Μέρος 2ο – Singularity και το μέλλον της ανθρωπότητας…

Εξαιρετική συνέχεια σε μια εξαιρετικά ενδιαφέρουσα σειρά ποστ….

5 October, 2008 στις 11:54 pm
2
Από: j95

“πρόκειται να αναδυθούν οι πρώτες τεχνολογικές οντότητες που θα είναι πιο ευφυείς από τους ανθρώπους”

εντάξει σιγά το τρομερό κατόρθωμα.

Στην πραγματικότητα το δύσκολο είναι να πετύχεις την ανθρώπινη βλακεία, όχι την ανθρώπινη ευφυϊα. Δεν κάνω πλάκα, απλά διατυπώνω casually τα θεμελιώδη προβλήματα της Τεχνητής Νοημοσύνης.

6 October, 2008 στις 10:37 pm
3
Από: maikwl

Χάχα, ο Turing πάντως αφιέρωσε κάμποση σκέψη στο θέμα.
Πολύ θα μου άρεσε να αναπτύξεις κριτήρια για ένα ακόμα πιο σημαντικό γεγονός (ας το αποκαλέσουμε Super Singularity προς το παρόν) και να τα παρουσιάσεις παρακάτω 😉

(j95, μάλλον το έκανες ήδη!!!)

6 October, 2008 στις 11:13 pm
4
Από: Elikas

Οι νόμοι των πιθανοτήτων δεν ήταν ποτέ το φόρτε μου, αλλά όλος αυτός ο συλλογισμός μου θυμίζει την εξίσωση Drake. Δηλαδή, την προσπάθεια απάντησης στο ερώτημα αν υπάρχουν εξωγήινοι κι αν ποτέ πρόκειται να έρθουμε σε επαφή μαζί τους. Την εποχή που ο Ντρέηκ διατύπωσε τη θεωρία του, δεν είχαν ακόμα ανακαλυφθεί εξωηλιακοί πλανήτες, οπότε η πρώτη άγνωστη μεταβλητή ήταν κατά πόσο είναι συνηθισμένη ή σπάνια η ύπαρξη τους. Η δεύτερη μεταβλητή είχε να κάνει με το πόσοι από αυτούς τους πλανήτες είναι ικανοί να φιλοξενήσουν ζωή, η τρίτη με το πόσο πιθανή είναι η ανάπτυξη ζωής με νοημοσύνη, η τέταρτη με το πόση διάρκεια μπορεί να έχει ένας εξωγήινος πολιτισμός μέσα στο χρόνο. Ανάλογα με το αν (αυθαίρετα) έβαζες μια χαμηλή ή μία υψηλή τιμή σε κάθε ματαβλητή (π.χ. 0.1 ή 0.001) μπορούσες να καταλήξεις ότι στον γαλαξία μας υπάρχουν αυτή τη στιγμή κάνα εκατομμύριο εξωγήινοι πολιτισμοί με τεχνολογική δυνατότητα να επικοινωνήσουν μεταξύ τους ή κανένας.

Με λίγα λόγια, οι παράμετροι που υπεισέρχονται σε ένα γενικό ερώτημα για το ποια θα είναι η πορεία της ανθρωπότητας τον επόμενο ενάμιση αιώνα είναι τόσες πολλές και άγνωστες που οποιαδήποτε μαθηματική προσέγγιση στηρίζεται σε καθαρή εικασία. Γιατί αν π.χ. υποθέσουμε ότι ο Ντρέηκ είχε σωστή λογική και με την προϋπόθεση ότι πλέον γνωρίζουμε πως οι πλανήτες γύρω από τα άστρα του γαλαξία μας είναι τρεις στο τάλιρο (αυθαίρετα συμπεραίνοντας ότι και στις υπόλοιπες μεταβλητές υπάρχουν ανάλογες πιθανότητες), θα μπορούσε κάλλιστα να συμβεί μια επαφή με κάποιον εξωγήινο πολιτισμό μέχρι το 2150 και να πάνε όλες οι υπόλοιπες θεωρίες στον κάλαθο των αχρήστων…

7 October, 2008 στις 1:05 am
5
Από: maikwl

Elikas, πολύ ενδιαφέρουσα παρατήρηση – η ιδέα σου με οδήγησε στο να ψάξω αν έχει γράψει κανείς τίποτα περί εξωγήινων πολιτισμών σε σχέση με το Επιχείρημα και όντως υπάρχει σχετική βιβλιογραφία… για παράδειγμαεδώ. (Ok, δεν ξέρω αν το άρθρο στο Serbian Astronomical Journal είναι η καλύτερη πηγή, αλλά μετά από μια γρήγορη ανάγνωση, το βρήκα καλογραμμένο και δεν είναι το μοναδικό.) Η ανάλυσή τους υποστηρίζει πως η υπόθεση ύπαρξης εξωγήινων πολιτισμών δεν μπορεί να επηρρεάζει τους υπολογισμούς μας για την μέλλον της ανθρωπότητας επειδή δεν έχουμε καμμία πληροφόρηση για τις κατανομές της ηλικίας των πολιτισμών (αν κατάλαβα καλά από μια γρήγορη ματιά – θα το ξανακοιτάξω)!

Επιστρέφω όμως στην ουσία της παρατήρησής σου που νομίζω πρέπει απαραίτητα να συσχετιστεί με την θεωρία πιθανοτήτων. Το κανόνας του Bayes απλά εφαρμόζεται για την ανανέωση της πιθανότητας του σεναρίου αφανισμού. Προσωπικά δεν πιστεύω επίσης πως πρέπει να δούμε την πιθανότητα αυστηρά ποσοτικοποιημένη (25%-50%) αλλά ως μια ένδειξη πως πρέπει να ζυγίσουμε ως ενδεχόμενο με μεγαλύτερο βάρος ούτως ώστε να εξετάσουμε με περισσότερη σοβαρότητα τους τρόπους με τους οποίους θα μπορέσουμε να το αποφύγουμε. Για εμένα απλά λειτουργεί ως στήριγμα στην άποψη πως σαν είδος είναι πολύ εύκολο να τα “σκατώσουμε” στην υπάρχουσα φάση της εξέλιξής μας.

7 October, 2008 στις 3:49 am
6
Από: Elikas

Σαν είδος τα έχουμε σκατώσει ήδη, οπότε η πιθανότητα να φτάσουμε στα άκρα σίγουρα δεν είναι αμελητέα. Μόνο που η συνέχεια εξαρτάται από εμάς τους ίδιους κι όχι από τη νομοτέλεια μαθηματικών εξισώσεων με άγνωστες μεταβλητές. Άλλωστε, σε κοινωνικό επίπεδο, όλες αυτές οι εικασίες για το μέλλον της ανθρωπότητας κρύβουν την παγίδα της μοιρολατρίας: Δηλαδή, είτε πιστεύουμε ότι θα γίνει το μεγάλο μπαμ και θα αφανιστούμε, είτε ότι θα εξαπλωθούμε και θα κατακτήσουμε τον γαλαξία μας, είτε ότι θα μας σώσουν οι σούπερ υπολογιστές, οι εξωγήινοι ή ο Χριστούλης, καταλήγουμε να μην κάνουμε τίποτα πέρα από το να περιμένουμε απλά να συμβεί κάτι (και να στοιχηματίζουμε ενδεχομένως υπέρ ή κατά κάθε πιθανότητας). Κι όμως, με λίγη φαντασία μπορούμε να θεωρήσουμε ότι η ατομική ή/και συλλογική παρέμβαση μας μπορεί να αλλοιώσει το αποτέλεσμα. Όχι τόσο επειδή κάποιος από εμάς ίσως εφεύρει μια μηχανή που θα σώσει (ή θα καταστρέψει) τον κόσμο, όσο επειδή έχουμε πλέον τη δυνατότητα να συμβάλλουμε (σε μαζική κλίμακα) στον ριζικό επαναπροσδιορισμό του αιώνιου ερωτήματος σχετικά με το ποιοι είμαστε και πού διάολο οδεύουμε.

Επιπλέον, με εξαίρεση τα εσχατολογικά σενάρια του τύπου “ολική εξάλειψη κάθε μορφής ζωής πάνω στη Γη”, σε όλες τις άλλες περιπτώσεις η έννοιες “καταστροφή” και “σωτηρία” είναι σχετικές. Ποιος μπορεί να αποκλείσει το ενδεχόμενο να αφανιστεί σε λίγες δεκαετίες ο μισός πληθυσμός του πλανήτη μόνο και μόνο για να δεκαπλασιαστεί χίλια χρόνια αργότερα; Ή το να αρχίσουμε να πολλαπλασιαζόμαστε και να δημιουργούμε αποικίες σε εξωηλιακά πλανητικά συστήματα μέχρι που μια ωραία πρωία του 4008 μ.Χ θα συναντήσουμε έναν πολύ πιο προηγμένο από εμάς πολιτισμό που θα αρχίσει να μας ξεπαστρεύει λες και είμαστε μικρόβια;

7 October, 2008 στις 10:59 am
7
Από: adamo

Μικρή γκρίνια για το post: Η βασική ιδιότητα που δίνει βάρος στη γνώμη του Aaronson δεν είναι αυτή του blogger, αλλά το επάγγελμά του.

9 October, 2008 στις 8:52 am
8
Από: maikwl

adamo, έχεις φυσικά δίκιο. Έβαλα την διόρθωση απ’ευθείας στο ποστ.

9 October, 2008 στις 6:31 pm
9
Από: Kensai

Η ιδέα του Singularity είναι σαφώς παραμελημένη στην Ελληνική μπλογκόσφαιρα…

Μήπως θα έπρεπε να το πω αυτό εγώ βρε Γιώργο;

Εβδομάδες τώρα…
http://freeneuron.blogspot.com/search?q=singularity

10 October, 2008 στις 8:09 pm
10
Από: Yorgos

Kensai: ας το πούμε editorial failure =)

Επί τη ευκαιρία, δημόσια kudos στον σύντροφο μάικωλ για την εξαιρετική σειρά. Βλέπω τον αιδεσιμότατο να μπαίνει στη λίστα των patron saints του RT (μαζί με τον PKD, το Χρήστο Γιανναρά, τον Ρας Μάιερ, το θείο Κορνήλιο και τη Χίλαρη).

13 October, 2008 στις 1:06 am
11
Από: Kensai

Γιώργο μου, συγγνώμη. Καταλάθος! Εντάξει στα blog δεν τα βάζουμε με τον editor.

Και το άρθρο είναι όντως εξαιρετικό. Άσε που υπάρχουν λίγα στην ελληνική που αγγίζουν το αντικείμενο.

13 October, 2008 στις 7:14 pm
12
Από: maikwl

Kensai: αν και τιμή μου να με αποκαλέσεις Yorgo – το όνομα έχει την αίγλη του, πως να το κάνουμε – δεν το δέχομαι 🙂 θα παραμείνω maikwl – brand ελαφρώς ξεθωριασμένο και καταπονημένο!
Οκ, έχεις δίκιο, δεν συνέδεσα το κείμενο με όλες τις αναφορές στο Singularity στο Ελληνικό διαδίκτυο. Δεν πρέπει να είναι πάνω από 10 όλες κι’όλες. Δεν έκανα και thorough lit review πριν γράψω το κείμενο… Ακόμα και το δικό μου ποστ που μπαίνει σε πιο βαθιά νερά από μια straightforward αναφορά, απλά αγγίζει το θέμα (για να μην πω, περνάει ξυστά δίπλα του). Απλά υπάρχουν τόσες πλευρές που είναι δύσκολο να γράψει κανείς ποστ χωρίς να αφήσει loose ends left and right.

Yorgo: quite a collection of characters! Τώρα, θα μας πεις και εσύ την γνώμη σου περί της ουσίας; Κάπου πρέπει να έχεις γράψει σχετικά 😉

13 October, 2008 στις 8:20 pm
13

[…] εκτενές αλλά ειδικό πόστ στο μπλογκ reality tape (μια που το θέμα καλύπτει ένα τεράστιο πεδίο) […]

1 April, 2009 στις 5:33 pm
14

[…] εκτενές αλλά ειδικό πόστ στο μπλογκ reality tape (μια που το θέμα καλύπτει ένα τεράστιο πεδίο) […]

1 April, 2009 στις 5:43 pm