Pięć Najpoważniejszych Zagrożeń Dla Istnienia Ludzkości - Alternatywny Widok

Spisu treści:

Pięć Najpoważniejszych Zagrożeń Dla Istnienia Ludzkości - Alternatywny Widok
Pięć Najpoważniejszych Zagrożeń Dla Istnienia Ludzkości - Alternatywny Widok

Wideo: Pięć Najpoważniejszych Zagrożeń Dla Istnienia Ludzkości - Alternatywny Widok

Wideo: Pięć Najpoważniejszych Zagrożeń Dla Istnienia Ludzkości - Alternatywny Widok
Wideo: 10 zwierząt, które uratowały ludzkie życie 2024, Może
Anonim

Porwani szumem o obecnych „kryzysach”, w obliczu których stoi ludzkość, zapominamy o dużej liczbie pokoleń, które, mamy nadzieję, przyjdą nas zastąpić. Nie mówimy o ludziach, którzy będą żyć 200 lat po nas, ale o tych, którzy będą żyli tysiąc lub 10 tysięcy lat po nas.

Używam słowa „nadzieja”, ponieważ stoimy w obliczu ryzyka, które nazywa się egzystencjalnym i które może zniszczyć ludzkość. Zagrożenia te są związane nie tylko z poważnymi katastrofami, ale także z katastrofami, które mogą zakończyć historię.

Jednak nie wszyscy ignorują odległą przyszłość. Mistycy tacy jak Nostradamus regularnie próbują ustalić datę końca świata. H. G. Wells próbował rozwinąć naukę o przewidywaniu i wiadomo, że opisał przyszłość ludzkości w swojej książce The Time Machine. Inni pisarze wymyślili inne wersje odległej przyszłości, aby ostrzec, zabawiać lub marzyć.

Ale nawet gdyby wszyscy ci pionierzy i futuryści nie myśleli o przyszłości ludzkości, wynik pozostałby taki sam. Niewiele człowiek mógł wcześniej zrobić, aby uchronić nas przed kryzysem egzystencjalnym, a nawet spowodować go.

Dziś jesteśmy w bardziej uprzywilejowanej sytuacji. Działalność ludzka stopniowo kształtuje przyszłość naszej planety. Chociaż wciąż daleko nam do kontrolowania katastrof, już teraz opracowujemy technologie, które mogą złagodzić ich konsekwencje lub przynajmniej coś zrobić.

Przyszłość jest niedoskonała

Jednak zagrożenia te nadal nie są dobrze rozumiane. W przypadku wymienionych problemów panuje bezsilność i fatalizm. Ludzie mówią o apokalipsach od tysiącleci, ale niewielu próbowało im zapobiec. Istoty ludzkie zresztą nie są tak silne, jeśli chodzi o problemy, które jeszcze się nie pojawiły (zwłaszcza ze względu na wpływ heurystyki dostępności) - tendencja do przeceniania prawdopodobieństwa tych zdarzeń, których przykłady są nam znane, oraz niedoceniania zdarzeń, które znamy. nie możemy od razu sobie przypomnieć).

Film promocyjny:

Jeśli ludzkość przestanie istnieć, to tego rodzaju strata będzie co najmniej równoważna utracie wszystkich żywych jednostek, a także upadkowi wszystkich ich celów. Jednak w rzeczywistości strata będzie prawdopodobnie znacznie większa. Zniknięcie człowieka oznacza utratę sensu stworzonego przez poprzednie pokolenia, utratę życia wszystkich przyszłych pokoleń (a liczba przyszłych żywotów może być astronomiczna), a także wszystkie wartości, które prawdopodobnie mogliby stworzyć.

Jeśli nie ma już świadomości i rozumu, prawdopodobnie oznacza to, że we wszechświecie sama wartość przestaje istnieć. To bardzo dobry moralny powód, by niestrudzenie pracować nad zapobieganiem zagrożeniom egzystencjalnym. I na tej drodze nie możemy popełnić ani jednego błędu.

Image
Image

Powiedziawszy to, wybrałem pięć najpoważniejszych zagrożeń dla życia ludzkiego. Należy jednak wziąć pod uwagę pewne dodatkowe okoliczności, ponieważ lista ta nie jest jeszcze ostateczna.

W ciągu ostatnich kilku stuleci odkryliśmy lub stworzyliśmy dla siebie nowe zagrożenia egzystencjalne: na początku lat 70. XX wieku odkryto superwulkany, a przed projektem Manhattan wojna nuklearna była niemożliwa. Dlatego należy spodziewać się pojawienia się innych zagrożeń. Ponadto niektóre zagrożenia, które dziś wydają się poważne, mogą zniknąć w miarę gromadzenia wiedzy. Prawdopodobieństwo wystąpienia pewnych wydarzeń również zmienia się w czasie. Czasami dzieje się tak, ponieważ obawiamy się istniejących zagrożeń i zajmujemy się ich przyczynami.

Wreszcie to, że coś jest możliwe i potencjalnie ryzykowne, nie oznacza, że warto się tym martwić. Istnieją zagrożenia, z którymi nie możemy nic zrobić - na przykład strumienie promieniowania gamma powstające w wyniku eksplozji galaktyk. Ale jeśli dowiemy się, że jesteśmy w stanie coś zrobić, zmieniają się priorytety. Na przykład wraz z poprawą warunków sanitarnych, pojawieniem się szczepionek i antybiotyków, dżuma zaczęła być postrzegana nie jako przejaw kary boskiej, ale w wyniku złego stanu opieki zdrowotnej.

1. Wojna jądrowa

Chociaż do tej pory użyto tylko dwóch bomb atomowych - w Hiroszimie i Nagasaki podczas II wojny światowej - a ich zapasy skurczyły się od szczytów zimnej wojny, błędem byłoby myślenie, że wojna nuklearna jest niemożliwa. W rzeczywistości nie wydaje się być niesamowita.

Image
Image

Kubański kryzys rakietowy był bliski przekształcenia się w kryzys nuklearny. Jeżeli wychodzimy z założenia, że taki kryzys zdarza się co 69 lat i istnieje jedna trzecia szans, że może on doprowadzić do wybuchu wojny nuklearnej, to prawdopodobieństwo takiej katastrofy wzrasta i odpowiadający jej współczynnik wyniesie 1 na 200 rocznie.

Co gorsza, kryzys kubański to tylko najbardziej znany przypadek. Historia radziecko-amerykańskiego odstraszania nuklearnego jest pełna sytuacji kryzysowych i niebezpiecznych błędów. Rzeczywiste prawdopodobieństwo nie jest już zależne od napięć międzynarodowych, jednak prawdopodobieństwo wystąpienia konfliktu nuklearnego jest mało prawdopodobne, aby było niższe niż współczynnik 1 na 1000 rocznie.

Wojna nuklearna na pełną skalę między głównymi mocarstwami doprowadziłaby do śmierci setek milionów ludzi bezpośrednio w momencie wymiany strajków lub w wyniku ich konsekwencji - byłaby to katastrofa nie do pomyślenia. Jednak w przypadku ryzyka egzystencjalnego to wciąż za mało.

To samo należy powiedzieć o zagrożeniach związanych z następstwami wybuchów jądrowych - często są one przesadzone. Lokalnie są śmiertelne, ale globalnie stanowią stosunkowo ograniczony problem. Bomby kobaltowe zostały zaproponowane jako hipotetyczna broń zagłady, zdolna zniszczyć wszystko w wyniku konsekwencji związanych z ich użyciem, ale w praktyce są one bardzo trudne do wykonania i kosztowne. W rzeczywistości ich stworzenie jest niemożliwe.

Prawdziwym zagrożeniem jest zima nuklearna - czyli cząsteczki sadzy, które mogą przedostać się do stratosfery i tym samym spowodować długotrwały spadek temperatury i odwodnienie planety. Aktualne symulacje klimatyczne pokazują, że uniemożliwiłoby to uprawianie dużej części planety przez wiele lat.

Jeśli ten scenariusz się spełni, miliardy ludzi umrą z głodu, a niewielka liczba ocalałych będzie narażona na inne zagrożenia, w tym choroby. Główna niepewność dotyczy tego, jak będą się zachowywać wznoszące się w niebo cząsteczki sadzy: w zależności od ich składu wynik może być inny i jak dotąd nie mamy wiarygodnego sposobu pomiaru tego rodzaju konsekwencji.

2. Pandemie spowodowane bioinżynierią

Pandemie naturalne spowodowały więcej ofiar śmiertelnych niż wojen. Jednak naturalne pandemie prawdopodobnie nie będą stanowić zagrożenia egzystencjalnego. Zwykle są ludzie odporni na patogeny, a potomkowie ocalałych stają się jeszcze bardziej chronieni.

Image
Image

Ewolucja nie wspiera również szczególnie tych pasożytów, które niszczą organizmy żywiciela, dlatego kiła, tak jak rozprzestrzeniła się w Europie, zmieniła się z okrutnego zabójcy i choroby przewlekłej.

Niestety, my sami jesteśmy teraz w stanie uczynić choroby bardziej destrukcyjnymi. Jednym z najbardziej znanych przykładów jest to, jak włączenie dodatkowego genu do ospy myszy - mysiego wariantu ospy - uczyniło ją znacznie bardziej zagrażającą życiu i zdolną do zakażania już zaszczepionych osobników. Niedawne prace dotyczące ptasiej grypy wykazały, że zaraźliwość tej choroby można celowo zwiększyć.

Obecnie ryzyko, że ktoś celowo rozprzestrzeni jakiś rodzaj złośliwej infekcji jest znikome. Jednak wraz z rozwojem biotechnologii i jej tańszymi metodami coraz więcej grup będzie w stanie uczynić chorobę jeszcze bardziej niebezpieczną.

Większość prac w dziedzinie broni biologicznej jest wykonywana przez państwa, które chcą coś kontrolować, ponieważ zniszczenie ludzkości nie jest przydatne militarnie. Jednak zawsze znajdą się ludzie, którzy przyjdą zrobić coś tylko dlatego, że są w stanie to zrobić. Inni mogą mieć bardziej wzniosłe cele.

Na przykład członkowie grupy religijnej Aum Shinrikyo próbowali przyspieszyć nadejście apokalipsy za pomocą broni biologicznej, a nie tylko poprzez skuteczniejszy atak gazem paraliżującym. Niektórzy uważają, że sytuacja na Ziemi ulegnie poprawie, jeśli nie będzie na niej więcej ludzi i tak dalej.

Liczba zgonów na skutek użycia broni biologicznej i epidemii pozwala sądzić, że następują one zgodnie z prawem władzy - w wielu przypadkach ofiar jest niewiele, ale w nielicznych jest ich wiele. Biorąc pod uwagę dostępne obecnie dane, ryzyko globalnej pandemii wywołanej bioterroryzmem wydaje się niewielkie.

Ale dotyczy to tylko bioterroryzmu: rządy przy pomocy broni biologicznej zabiły znacznie więcej ludzi niż bioterroryści (około 400 tysięcy osób padło ofiarami japońskiego programu wojny biologicznej podczas II wojny światowej). Technologia staje się coraz potężniejsza, a zatem tworzenie jeszcze większej liczby patogenów w przyszłości będzie łatwiejsze.

3. Superinteligencja

Inteligencja jest potężna. Nieznaczny wzrost w rozwiązywaniu problemów i koordynacji grupowej jest przyczyną braku pracy pozostałych gatunków małp. Obecnie ich istnienie zależy od decyzji podejmowanych przez osobę, a nie od tego, co robi.

Image
Image

Bycie inteligentnym to prawdziwa doskonałość dla ludzi i organizacji, dlatego wiele wysiłku poświęca się na poprawę naszej indywidualnej i zbiorowej inteligencji, od leków poprawiających zdolności poznawcze po opracowywanie programów związanych ze sztuczną inteligencją.

Problem polega na tym, że inteligentne systemy dobrze sobie radzą w osiąganiu swoich celów, ale jeśli te cele są słabo zdefiniowane, to mają zdolność wykorzystania swojej mocy do osiągnięcia swoich katastrofalnych celów w sprytny sposób. Nie ma powodu, by sądzić, że sam intelekt jest w stanie sprawić, by coś lub ktoś działał poprawnie i moralnie. W rzeczywistości istnieje możliwość, że niektóre typy systemów superinteligentnych sprzeciwiają się regułom moralnym, nawet gdyby były one możliwe.

Jeszcze bardziej niepokojący jest fakt, że próbując wyjaśnić sztuczną inteligencję, stajemy przed głębokimi problemami praktycznymi i filozoficznymi. Wartości ludzkie to niejasne, złożone kwestie, których nie potrafimy jeszcze dobrze zdefiniować, a nawet gdybyśmy mogli, moglibyśmy nie zrozumieć pełnych konsekwencji tego, co próbujemy stworzyć.

Inteligencja oparta na oprogramowaniu może bardzo szybko wypełnić lukę między ludźmi, a możliwości maszyn mogą stać się niebezpieczne. Problem polega na tym, że sztuczna inteligencja może odnosić się do inteligencji biologicznej na różne sposoby: może działać szybciej na szybszych komputerach, jej części można zlokalizować na większej liczbie komputerów, niektóre jej wersje można testować i aktualizować w locie, oraz istnieje możliwość wprowadzenia nowych algorytmów, które mogą radykalnie zwiększyć wydajność.

Dzisiaj wielu zakłada, że „przełom w inteligencji” jest prawdopodobny, jeśli same programy będą miały wystarczające możliwości tworzenia lepszych programów. Jeśli dojdzie do tego rodzaju skoku, będzie duża różnica między inteligentnym systemem (lub ludźmi, którzy mówią mu, co ma robić), a resztą świata. Taka sytuacja może bardzo dobrze doprowadzić do katastrofy, jeśli cele nie zostaną ustawione poprawnie.

Niezwykłą rzeczą w superinteligencji jest to, że nie wiemy, czy w rozwoju inteligencji możliwy jest szybki i potężny przełom: może nasza obecna cywilizacja jako całość poprawia się w najszybszym tempie. Istnieją jednak wystarczające powody, by sądzić, że niektóre technologie są w stanie przyspieszyć pewne rzeczy znacznie szybciej niż możliwości poprawy ich kontroli przez nowoczesne społeczeństwo.

Ponadto nie jesteśmy jeszcze w stanie zrozumieć, jak niebezpieczne mogą być niektóre formy superinteligencji i jak będą działać strategie łagodzące. Bardzo trudno jest spekulować na temat przyszłych technologii, których jeszcze nie mamy, lub inteligencji, która przewyższa to, co mamy. Spośród wymienionych zagrożeń to właśnie to ma największe szanse na osiągnięcie naprawdę dużej skali lub pozostanie tylko mirażem.

Ogólnie rzecz biorąc, obszar ten nie został jeszcze dostatecznie zbadany, co jest zaskakujące. Nawet w latach pięćdziesiątych i sześćdziesiątych ludzie byli w pełni przekonani, że superinteligencja może powstać „w ciągu jednego pokolenia”, jednak w tamtych czasach nie poświęcano należytej uwagi kwestiom bezpieczeństwa. Być może wtedy ludzie po prostu nie potraktowali poważnie swoich przewidywań i najprawdopodobniej uznali to za problem w odległej przyszłości.

4. Nanotechnologia

Nanotechnologia polega na kontrolowaniu materii z atomową lub molekularną precyzją. Sam w sobie nie jest niebezpieczny, a wręcz przeciwnie, może być bardzo dobrą wiadomością do wielu zastosowań. Problem polega na tym, że podobnie jak w biotechnologii, rosnące możliwości zwiększają również potencjał nadużyć, przed którymi bardzo trudno jest się obronić.

Image
Image

Dużym problemem nie jest osławiona „szara maź” samoreplikujących się nanomaszyn, które pochłaniają wszystko. Będzie to wymagało stworzenia bardzo wyrafinowanych urządzeń. Trudno jest stworzyć maszynę, która może się rozmnażać: biologia z definicji jest lepsza w tego rodzaju zadaniach. Być może niektórym maniakom uda się to zrobić, ale na drzewie niszczycielskich technologii są bardziej dostępne owoce.

Najbardziej oczywistym ryzykiem jest to, że automatyczna produkcja precyzyjna wydaje się być idealna do taniej produkcji rzeczy, takich jak broń. W świecie, w którym wiele rządów będzie miało możliwość „wydrukowania” dużej liczby autonomicznych lub półautonomicznych systemów uzbrojenia (w tym możliwość zwiększenia ich produkcji), wyścig zbrojeń może stać się bardzo intensywny - aw rezultacie zwiększona niestabilność, a zatem rozpoczęcie pierwszego uderzenia może być bardzo kuszące do momentu, gdy wróg uzyska wielką przewagę.

Broń może być również bardzo mała i bardzo dokładna: może być "inteligentną trucizną", która może działać nie tylko jako gaz nerwowy, ale także wybierać swoje ofiary, lub wszechobecne mikro-roboty (gnatboty), miniaturowe systemy nadzoru, aby utrzymać ludność w posłuszeństwie - wszystko to jest całkiem możliwe. Ponadto broń jądrowa i instalacje, które wpływają na klimat, mogą wpaść w ręce intruzów.

Nie możemy oszacować prawdopodobieństwa egzystencjalnego ryzyka, jakie stanowi przyszła nanotechnologia, ale najwyraźniej mogą one być dość destrukcyjne po prostu dlatego, że są w stanie dać, co chcemy.

5. Tajemnicza nieznana

Najbardziej niepokojąca możliwość jest taka, że na świecie jest coś śmiertelnego, ale nie wiemy, co to jest.

Image
Image

Cisza w niebie może być tego świadectwem. Czy brak kosmitów wynika z faktu, że życie i inteligencja są bardzo rzadkie, czy też dlatego, że inteligentne życie ma tendencję do niszczenia? Jeśli istnieje przyszły Wielki Filtr, to inne cywilizacje powinny to zauważyć, ale nawet to nie pomogło.

Bez względu na takie zagrożenie byłoby prawie nieuniknione, nawet gdybyś był świadomy jego istnienia, niezależnie od tego, kim jesteś lub kim naprawdę jesteś. Nic nie wiemy o tego rodzaju zagrożeniach (żadne z powyższych zagrożeń w ten sposób nie działa), ale mogą istnieć.

Zauważ, że obecność czegoś nieznanego nie oznacza, że nie możemy o tym rozumować. Artykuł autorstwa Maxa Tegmarka i Nicka Bostroma wykazał, że dany zestaw zagrożeń powinien mieć stosunek mniejszy niż jeden do miliarda rocznie, w oparciu o względny wiek Ziemi.

Może cię zaskoczyć, że zmiany klimatu i wpływ meteorów nie znajdują się na tej liście. Zmiana klimatu, choć przerażająca, prawdopodobnie nie sprawi, że cała planeta stanie się niezdatna do zamieszkania (ale może stanowić dodatkowe zagrożenie, jeśli nasza ochrona okaże się nieskuteczna). Oczywiście meteory mogą zetrzeć nas z powierzchni Ziemi, ale w takim przypadku musimy być bardzo przegranymi.

Zazwyczaj pewien typ ssaka istnieje od około miliona lat. Tak więc główny naturalny wskaźnik wymierania wynosi w przybliżeniu jeden na milion rocznie. To znacznie mniej niż ryzyko wojny nuklearnej, która 70 lat później nadal stanowi największe zagrożenie dla naszego dalszego istnienia.

Heurystyki dostępności zmuszają nas do przeceniania zagrożeń, o których często mówi się w mediach, i bagatelizowania tych zagrożeń, z którymi ludzkość jeszcze się nie spotkała. Jeśli chcemy nadal istnieć nawet po milionie lat, musimy naprawić tę sytuację.

Anders Sandberg

Popularna nauka

Zalecane: