Niedocenione ryzyko wyginięcia człowieka?
opublikowane: 13/03/12, 20:32
Czy ludzkość nie docenia ryzyka własnego wyginięcia?
Tym razem ten post nie będzie opisywał odkrycia niedawno opublikowanego w czasopiśmie. W trakcie moich różnych lektur w ciągu ostatnich kilku tygodni, wybrałem kilka puzzli i zdałem sobie sprawę, że dość dobrze do siebie pasują, że kryje się za nimi myśl przewodnia. Zaczęło się pod koniec 2011 roku w Durbanie od nowego niepowodzenia społeczności międzynarodowej w osiągnięciu porozumienia w sprawie ograniczenia emisji gazów cieplarnianych (GHG). Następnie pod koniec grudnia ogłoszono stworzenie przez naukowców zmutowanych wirusów ptasiej grypy, które prawdopodobnie będą łatwiej przenoszone między zakażonymi ludźmi. Po ogłoszeniu najpierw odbyła się debata, czy publikowanie metod, za pomocą których biolodzy zmodyfikowali H5N1, było rzeczywiście właściwe, a następnie bardziej pragmatyczne pytanie: czy przeciętny terrorysta może to łatwo osiągnąć?
Potem było kolejne ogłoszenie, 12 stycznia, tym razem bardziej rytualne, ale także bardziej dyskretne: Biuletyn Naukowców Atomistyki ogłaszający, że zegar końca świata, który od 1947 r. Na tym zegarze jest teraz 23:55, a ten postęp wielkiej wskazówki został uzasadniony brakiem postępów w ograniczaniu zarówno rozprzestrzeniania broni jądrowej, jak i emisji gazów cieplarnianych. „Globalna społeczność może zbliżać się do punktu zwrotnego w swoich wysiłkach na rzecz zapobieżenia katastrofie spowodowanej zmianami w ziemskiej atmosferze. Międzynarodowa Agencja Energii przewiduje, że jeśli społeczeństwa nie zaczną w ciągu najbliższych pięciu lat opracowywać alternatyw dla technologii energetycznych emitujących węgiel, świat jest skazany na cieplejszy klimat, podnoszący się poziom mórz, zanikanie narodów wyspiarskich i zwiększone zakwaszenie oceanów”. Nie jest bez ironii, że kilka dni temu pojawiła się kolejna informacja, bezpośrednio z tym związana, i podałem ją, surową jak odlew, w jednym z moich cotygodniowych wyborów: nigdy w ciągu ostatnich 300 milionów lat oceany nie były tak kwaśne jak dzisiaj. Mimo doniosłości wiadomość nie wydawała się nikogo poruszyć...
Dokładnie w momencie, gdy publikowanych jest wiele książek na temat „2012, rok końca świata przewidywanego przez kalendarz Majów” (byłem zdumiony, widząc cały stół książek na ten temat w FNAC), mężczyźni bawiący się w straszenie samych siebie, doskonale wiedząc, że to nonsens, my zamiatamy pod dywan prawdziwe powody do zmartwień. Stąd pytanie, które stanowi tytuł tego wpisu: czy ludzkość nie docenia ryzyka własnego wyginięcia, nie rozwiązując problemów, które jej zagrażają, lub ryzykując, że technologie masowej zagłady wpadną w niepowołane ręce? Oczywiście nie mam odpowiedzi i pozostawiam to każdemu do przemyślenia, ale chciałem zakończyć ten post jak żaden inny, zwrócić uwagę na wywiad w The Atlantic ze szwedzkim filozofem Nickiem Bostromem, który wykłada na Uniwersytecie Oksfordzkim, kieruje tamtejszym Instytutem na temat przyszłości ludzkości i jest przedstawiony na zdjęciu na górze tej strony.
Z doświadczeniem w fizyce, neuronauce i filozofii nauki, Nick Bostrom niekoniecznie ma typowy profil filozofa, jak zwykle go sobie wyobrażamy. Pracował obszernie nad koncepcją „ryzyka egzystencjalnego” w sensie scenariusza katastrofy prowadzącej „albo do całkowitego zniszczenia wszelkiego inteligentnego życia na Ziemi, albo do trwałego paraliżu jego potencjału rozwojowego”. Dlatego w tym wywiadzie nie interesują go odległe konsekwencje globalnego ocieplenia, ale biorąc pod uwagę, że ten XXI wiek będzie kluczowy dla ludzkości ze względu na szybki rozwój nowych technologii, zagrożenia, jakie te ostatnie będą stwarzać w najbliższej przyszłości: domena publiczna: można pobrać sekwencję genetyczną wirusa ospy lub wirusa grypy hiszpanki z Internetu.Do tej pory przeciętny człowiek ma tylko swoją graficzną reprezentację na ekranie komputera, ale rozwijamy również coraz wydajniejsze maszyny do syntezy DNA, które mogą pobrać jeden z tych cyfrowych planów i tworzyć prawdziwe nici RNA lub DNA. Wkrótce te maszyny będą wystarczająco potężne, aby odtworzyć te wirusy. Więc masz już jakieś przewidywalne ryzyko, a jeśli zaczniesz modyfikować te chorobotwórcze organizmy na różne sposoby, zobaczysz, że pojawia się niebezpieczna nowa granica. Myślę, że w dłuższej perspektywie sztuczna inteligencja, gdy nabierze ludzkich, a potem nadludzkich zdolności, wprowadzi nas w strefę dużego ryzyka. Martwią mnie również różne rodzaje kontroli populacji, takie jak inwigilacja i manipulacja psychologiczna przy użyciu narkotyków”.
Kiedy dziennikarz, który przeprowadza z nim wywiad, pyta go, dlaczego ryzyko poważnego poślizgu szacuje się na jedną lub dwie szanse na dziesięć w ciągu stulecia, co jest dużą szansą, Nick Bostrom ma następującą odpowiedź: „Myślę, że prowadzi do tego poczucie, że ludzie opracowują te bardzo potężne narzędzia (...) i że istnieje ryzyko, że coś pójdzie nie tak. Jeśli cofniesz się w czasie z bronią jądrową, okaże się, że do wyprodukowania bomby atomowej potrzebne były rzadkie surowce, takie jak wzbogacony uran lub ton, które są bardzo trudne do zdobycia. technikę, która pozwoliła ci stworzyć broń nuklearną przez gotowanie piasku w kuchence mikrofalowej lub coś w tym stylu. Gdyby tak było, gdzie byśmy teraz byli? Przypuszczalnie po dokonaniu tego odkrycia cywilizacja byłaby skazana na zagładę. Za każdym razem, gdy dokonujemy takiego odkrycia, wkładamy rękę do dużej urny pełnej kul i wyciągamy nową kulę: jak dotąd wypuściliśmy zarówno białe, jak i szare kule, ale może następnym razem wyciągniemy czarną kulę, znalezisko, które oznacza katastrofę. W tej chwili nie mamy dobrego sposobu na włożenie piłki z powrotem do urny, jeśli nam się to nie podoba. Po opublikowaniu odkrycia nie ma możliwości „cofnięcia publikacji”.
Nick Bostrom absolutnie nie jest przeciwnikiem technologii: wręcz przeciwnie, jest wielkim zwolennikiem transhumanizmu. Po prostu zmusza nas do zachowania kontroli. Kontrola naszych technologii, naszej planety, naszej przyszłości. Ponieważ wyginięcie człowieka nie jest jedynym ryzykiem, na które narażamy się. Drugim obliczem ryzyka egzystencjalnego jest całkowity zanik wolności na skalę planetarną: „Można sobie wyobrazić scenariusz globalnej dystopii totalitarnej. Ponownie wiąże się to z możliwością opracowania przez nas technologii, które znacznie ułatwią opresyjnym reżimom eliminację dysydentów lub monitorowanie ich populacji w celu uzyskania stabilnej dyktatury, zamiast tych, które widzieliśmy w historii i które ostatecznie zostały obalone”. George Orwell i jego rok 1984 nie są daleko.
Pierre'a Barthelemy'ego
Źródło: http://passeurdesciences.blog.lemonde.f ... xtinction/