Uzyskaj dostęp do tej i ponad 250000 książek od 14,99 zł miesięcznie
„Czy SI staje się coraz bardziej rzeczywista? Czy wkroczyliśmy już w nową erę inteligentnych maszyn? Czas dojrzeć, by zmierzyć się z tym tematem. Autorzy tegorocznej odsłony Pytania «Edge» (jest ich niemal dwustu) stanowią dojrzałe grono specjalistów wystrzegających się nawiązań do science fiction i filmów w rodzaju: «Star maker», «Zakazana planeta», «Projekt Forbina», «Łowcy androidów», «Ona», «Matrix» czy «The Borg».
Osiemdziesiąt lat po tym, jak Alan Turing opracował swą uniwersalną maszynę, czas już oddać honor jemu i innym pionierom sztucznej inteligencji i pozwolić im na zasłużony spoczynek. Historię już znamy (...). Co dalej?
Otóż, zgodnie z należytym porządkiem, teraz «Edge» zadaje pytanie: A TY, CO MYŚLISZ O MYŚLĄCYCH MASZYNACH?” – fragment przedmowy, John Brockman, wydawca i redaktor „Edge”
Ebooka przeczytasz w aplikacjach Legimi na:
Liczba stron: 645
Odsłuch ebooka (TTS) dostepny w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:
Tytuł oryginału: What to think about machines that think
Copyright © 2015 by Edge Foundation
All rights reserved
First published in the United States of America.
No part of this book may be used or reproduced in any manner whatsoever without written permission except in the case of brief quotations embodied in critical articles and reviews.
Wydanie polskie: © 2017 Kurhaus Publishing Kurhaus Media sp. z o.o. sp.k.
Prawa do przekładu polskiego:
© 2017 Kurhaus Publishing Kurhaus Media sp. z o.o. sp.k.
Wszelkie prawa zastrzeżone.
Żaden z fragmentów książki nie może być wykorzystywany ani przedrukowywany bez pisemnej zgody Wydawcy. Jedyny dopuszczalny użytek stanowią krótkie cytaty stanowiące integralną część artykułów o charakterze krytycznym i recenzji.
Przekład: Kurhaus Publishing, GETIT, Katarzyna Kubala
Redakcja, edycja i korekta: Kurhaus Publishing
Skład i łamanie: Studio graficzne Temperówka/temperowka.pl
Projekt okładki: Justyna Kosińska/temperowka.pl
Wydanie elektroniczne 2017
ISBN: 978-83-65301-36-9
Dobre ścieżki literatury:
www.kurhauspublishing.com
Kurhaus Publishing Kurhaus Media sp. z o.o. sp.k.
ul. Cynamonowa 3, 02-777 Warszawa
Dział sprzedaży: [email protected], tel. 531790555
Konwersja publikacji do wersji elektronicznej
Inspirującej lektury,
Sebastian Kulczyk
John Brockman
Wydawca i redaktor, Edge
Zapoczątkowane jeszcze w latach 80. filozoficzne dyskusje o sztucznej inteligencji (SI) – o tym, czy komputery mogą „naprawdę” myśleć, mieć świadomość itd. – w ostatnim czasie przerodziły się w nowy typ rozmów, poświęcony temu, w jaki sposób możemy radzić sobie z formami sztucznej inteligencji występującymi (zdaniem wielu) już dziś, we współczesnym świecie. Jeśli bowiem te formy SI osiągną „superinteligencję” (termin zapożyczony z opublikowanej w 2014 roku książki Nicka Bostroma), to mogą stać się zagrożeniem dla egzystencji człowieka, doprowadzając do – jak określił to Martin Rees – naszej „ostatniej godziny”. Całkiem niedawno międzynarodowa prasa cytowała w nagłówkach artykułów Stephena Hawkinga, który powiedział w wywiadzie dla telewizji BBC: „Rozwój pełnej sztucznej inteligencji może oznaczać koniec ludzkiej rasy”.
Pytanie roku 2015 portalu Edge[1] brzmiało więc: „A ty, co myślisz o myślących maszynach?”.
Ale zaraz, chwileczkę! Czy nie powinniśmy spytać także samych myślących maszyn, co one sądzą na ten temat? Czy może chciałyby lub czy wręcz oczekują, że będą im przysługiwać prawa obywatelskie? Czy będą posiadały świadomość? Jakiego rodzaju rządy owe sztuczne inteligencje by dla nas wybrały? Jakiego kształtu społeczeństwo chciałyby budować? A w ogóle to czy „ich” społeczeństwo byłoby zarazem „naszym” społeczeństwem? Czy my i sztuczne inteligencje włączymy się wzajemnie w nasze kręgi empatii?
Bardzo wielu członków klubu Edge było pionierami w dziedzinie SI – zarówno jeśli chodzi o prace doświadczalne nad nią, jak i teorię. SI była najbardziej widocznym i zarazem kluczowym punktem dyskusji pomiędzy Pamelą McCorduck (Machines who think) i Isaakiem Asimovem (Machines that think), toczonych już w latach 80. podczas naszych pierwszych spotkań. Rozmowy prowadzimy nieprzerwanie – czego dowodem jest choćby opublikowany na stronie Edge materiał pioniera wirtualnej rzeczywistości Jarona Laniera pt. „The myth of AI” (pol. „Mit sztucznej inteligencji”). Sposób, w jaki wyjaśnia on błędy logiczne i niepokoje, jakie wywołują próby postrzegania komputerów jako „ludzi”, wzbudził masę ubogacających i prowokujących komentarzy.
Czy SI staje się coraz bardziej rzeczywista? Czy wkroczyliśmy już w nową erę inteligentnych maszyn? Czas dojrzeć, by zmierzyć się z tym tematem. Autorzy tegorocznej odsłony Pytania Edge (jest ich niemal dwustu) stanowią dojrzałe grono specjalistów wystrzegających się nawiązań do science fiction i filmów w rodzaju: „Star maker”, „Zakazana planeta”, „Projekt Forbina”, „Łowcy androidów”, „2001”[2], „Ona”, „Matrix” czy „The Borg”. Osiemdziesiąt lat po tym, jak Alan Turing opracował swą uniwersalną maszynę, czas już oddać honor jemu i innym pionierom sztucznej inteligencji i pozwolić im na zasłużony spoczynek. Historię już znamy (Chętnych zapraszam do materiału George’a Dysona z 2004 roku pt. „Turing’s Cathedral”, który znajdziecie na stronie Edge). Co dalej?
Otóż, zgodnie z należytym porządkiem, teraz Edge zadaje pytanie: A TY, CO MYŚLISZ O MYŚLĄCYCH MASZYNACH?
John Brockman
Wydawca i redaktor, Edge
Profesor robotyki kognitywnej w Imperial College London, autor książki Embodiment and the Inner Life
Wyobraźmy sobie, że potrafilibyśmy wyposażyć maszynę w inteligencję na poziomie ludzkim, co oznaczałoby, że w każdej (albo niemal każdej) sferze intelektualnych dociekań stałaby się ona równa człowiekowi, a w kilku wręcz by go wyprzedzała. Czy to oznaczałoby, że taka maszyna będzie posiadała świadomość? To bardzo ważne pytanie. Odpowiedź pozytywna kazałaby nam natychmiast zastygnąć w bezruchu. Gdybyśmy stworzyli taką rzecz, to jak powinniśmy ją traktować? Czy byłaby ona zdolna do odczuwania cierpienia albo radości? Czy zasługiwałaby, by przyznać jej te same prawa, które należą się istotom ludzkim? Czy w ogóle powinniśmy myśleć o sprowadzeniu świadomości maszyn do naszego świata?
To bardzo złożony problem: czy osiągnięcie przez maszynę inteligencji na poziomie ludzkim zakłada automatycznie, iż staje się ona świadoma? Pewnego rodzaju trudności przysparza fakt, że ze świadomością ludzi i innych zwierząt wiąże się wiele atrybutów. Wszystkie zwierzęta przejawiają poczucie celu. Wszystkie żywe istoty są, bardziej lub mniej, świadome istnienia świata, który zamieszkują, oraz jego elementów. Wszystkie zwierzęta przejawiają, w większym lub mniejszym stopniu, spójność poznawczą, co oznacza, że potrafią one wykorzystać wszystkie swe umysłowe zasoby – percepcję, wspomnienia, nabyte umiejętności – do radzenia sobie z daną sytuacją w sposób, który prowadzi je do osiągnięcia celu. W tym znaczeniu każde zwierzę demonstruje pewien rodzaj spójności, rodzaj osobowości. Pewne zwierzęta, w tym ludzie, są także świadome siebie samych – mają poczucie posiadania ciała oraz przepływu myśli. I w końcu większość z nich, jeśli nie wszystkie, potrafi cierpieć, a niektóre z nich są zdolne do empatii wobec tych, którzy cierpią.
U (zdrowych) ludzi wszystkie te atrybuty występują łącznie, niejako w pakiecie. Można przyjąć, że w przypadku sztucznej inteligencji będą one występować oddzielnie. Który z atrybutów – i czy w ogóle któryś z nich – przypisywanych ludzkiej świadomości jest niezbędnym elementem towarzyszącym inteligencji na poziomie ludzkim? Cóż, każdy z wymienionych (a przecież lista nie jest specjalnie rozbudowana) zasługuje na długi opis. Pozwólcie zatem, że skupię się na dwóch: mianowicie na świadomości istnienia świata oraz zdolności do odczuwania cierpienia. Osobiście uważam, że niezbędnym elementem inteligencji na poziomie ludzkim jest świadomość istnienia świata.
Abyśmy mogli uznać, że coś posiada inteligencję na poziomie ludzkim, to coś musiałoby posługiwać się językiem, a ten służy przecież głównie do rozmawiania o świecie. W tym znaczeniu inteligencja ściśle wiąże się z tym, co filozofowie nazywają intencjonalnością. Więcej nawet, język jest zjawiskiem społecznym i jego podstawowym zastosowaniem w grupie ludzi jest rozmawianie o tym, co jej członkowie potrafią dostrzec (na przykład o jakimś narzędziu czy kawałku drewna), co dostrzegli (kawałek drewna widziany wczoraj) albo co mogliby dostrzec (być może kawałek drewna zobaczony jutro). Krótko mówiąc, język jest osadzony w naszej świadomości istnienia świata. W przypadku jakiejś posiadającej kształt istoty albo robota, fakt posiadania tej świadomości przejawiałby się w jej interakcjach z otoczeniem (unikanie przeszkód, wychwytywanie sygnałów). Moglibyśmy jednak rozszerzyć tę koncepcję tak, by uwzględniała też rozproszoną, pozbawioną kształtu sztuczną inteligencję, wyposażoną w odpowiednie czujniki.
Aby pewien rodzaj świadomości świata mógł zostać uznany za przejaw świadomości w ogóle, musiałby on prawdopodobnie iść w parze z manifestowaniem poczucia celu i spójnością poznawczą (o pewnym stopniu). Być może więc ta triada atrybutów także u sztucznej inteligencji będzie występować w pakiecie. Dajmy jednak na chwilę spokój temu pytaniu i wróćmy do kwestii zdolności do odczuwania cierpienia i radości. Mimo że jest ona silnie związana z ludzką świadomością, nie znajduję jakiegoś oczywistego powodu, dla którego miałaby być niezbędnym elementem inteligencji na poziomie ludzkim na takiej samej zasadzie jak świadomość świata. Możemy przecież sobie wyobrazić maszynę, która na chłodno i bez uczuć wykonuje całą gamę wymagających intelektualnie zadań. Takiej maszynie brakowałoby atrybutu świadomości, która liczy się zwłaszcza wtedy, gdy przychodzi do dyskutowania o prawach. Jak zauważył Jeremy Bentham[3], gdy zastanawiamy się nad sposobem, w jaki traktujemy niebędące ludźmi zwierzęta, nie jest kwestią, czy potrafią one argumentować, tylko czy są zdolne do odczuwania cierpienia.
Wcale przy tym nie sugeruję, że „goła” maszyna nigdy nie będzie zdolna do odczuwaniu cierpienia lub radości – że zdolność do ich odczuwania jest biologiczna. Chodzi mi raczej o to, że cierpienie i radość mogą być oddzielone od innych atrybutów, które – zgrupowane – składają się na ludzką świadomość. Przyjrzyjmy się zresztą bliżej tej oczywistej dysocjacji. Poddałem już dyskusji koncepcję, według której świadomość istnienia świata może występować jednocześnie z wyraźnym poczuciem celu. W przypadku zwierząt świadomość otaczającego je świata i występujących w nim niezmienników (jak je nazywał J.J. Gibson) służy po prostu zaspokajaniu potrzeb. Zwierzę manifestuje świadomość istnienia drapieżnika poprzez oddalanie się od niego, a zdobyczy – ruszając w jej stronę. Jeśli rozważymy to w kontekście istnienia całego zestawu celów i potrzeb, zachowanie zwierzęcia ma uzasadnienie i w tym kontekście jego działanie może zostać udaremnione, cele nieosiągnięte, a potrzeby niespełnione. To może stać się podstawą do odczuwania pewnego rodzaju cierpienia.
A co ze sztuczną inteligencją na poziomie ludzkim? Czy SI na poziomie ludzkim nie posiada całego zestawu bardzo złożonych celów do osiągnięcia? Czy próby ich osiągnięcia nie mogą okazać się frustrujące, czy nie mogą być udaremniane na każdym kroku? Czy odpowiednie będzie sformułowanie, że w tak surowych warunkach sztuczna inteligencja cierpi – nawet jeśli kształt, który przybiera, czyni ją odporną na ten rodzaj bólu czy psychicznego dyskomfortu, który znany jest człowiekowi?
W tym miejscu połączenie wyobraźni i intuicji wybiega już poza pewne granice. Podejrzewam, że nie poznamy odpowiedzi na to pytanie, dopóki nie będziemy mogli skonfrontować się z rzeczywistością. Dopiero gdy wysublimowana forma sztucznej inteligencji stanie się towarzyszką naszej codzienności, nasz język dostosuje się do istnienia tych obcych istot. Naturalnie do tego czasu możemy się rozmyślić i stwierdzić, że nie chcemy w naszym świecie sztucznych inteligencji, ale one już z nami będą, na dobre i na złe.
Profesor w programie Johnstone Family na Uniwersytecie Harvarda, autor książki Piękny styl. Przewodnik człowieka myślącego po sztuce pisania XXI wieku
Rozumowanie jest „niczym więcej niż szacowaniem” – to zwięzłe porównanie, którego dokonał Thomas Hobbes – wydaje się jedną z największych idei w historii ludzkości. Obserwacja, że można osiągnąć racjonalność w fizycznym procesie kalkulacji, wskrzeszona została w XX w. w twierdzeniu Alana Turinga, według którego proste maszyny mogą dokonać dowolnego wykonalnego obliczenia, a także w modelach D.O. Hebba, Warrena McCullocha i Waltera Pittsa i ich naukowych spadkobierców, którzy wykazali, że stosując sieci neuronowe o uproszczonej budowie, można uzyskiwać porównywalne rezultaty. Osiągnięcia poznawcze mózgu można wyjaśnić za pomocą terminów fizycznych: by ująć to dosadnie (i na przekór krytykom), można powiedzieć, że przekonania są rodzajem informacji, myślenie – rodzajem obliczeń, a motywacja – pewną formą informacji zwrotnej i kontroli.
To fantastyczna idea z dwóch powodów. Po pierwsze – uzupełnia ona naturalistyczną koncepcję rozumienia wszechświata, przeganiając z maszyny wszelkie tajemne dusze, duchy i zjawy. Tak jak Darwin umożliwił uważnym obserwatorom świata odrzucenie kreacjonizmu, tak Turing i inni pozwolili tym, którzy przyglądają się umysłowi, obejść się bez spirytualizmu. Po drugie, obliczeniowa teoria umysłu otwiera drogę do sztucznej inteligencji – do myślących maszyn. Zasadniczo człowiek mógłby zaprojektować procesor informatyczny będący kopią ludzkiego mózgu, a zarazem daleko wyprzedzający jego możliwości. Nie twierdzę, że to się ziści – jako że prawdopodobnie nigdy nie wykrzeszemy z siebie wystarczającej technologicznej i ekonomicznej motywacji, by go stworzyć. Tak jak po wynalezieniu samochodu nie skopiowano konia, tak stworzenie systemu sztucznej inteligencji, który będzie potrafił zarobić na siebie, nie oznacza, że skopiujemy osobnika Homo sapiens. Urządzenie zaprojektowane do tego, by prowadzić auto albo przewidzieć epidemię, niekoniecznie musi umieć przyciągnąć samca/samicę lub reagować na smród zgnilizny.
Niemniej fakt, że zbliżamy się do myślących maszyn, wzmógł nawracający strach przed tym, że nasza wiedza stanowić będzie dla nas gwóźdź do trumny. Osobiście uważam, że współczesne obawy przed komputerami, które wpadną w szał, to strata energii – scenariusz przypomina raczej wirusa Y2K[4] niż Projekt Manhattan.
Przede wszystkim mamy jeszcze dużo czasu, by się przygotować. Sztuczna inteligencja na poziomie ludzkim to standard, którego z pewnością nie osiągniemy przed upływem 15–20 lat. Od jakiegoś czasu dzieli nas od niej ta sama odległość, jako że wiele nagłaśnianych osiągnięć okazało się mieć marne podstawy. To prawda, że w przeszłości wielu „ekspertów” w sposób wręcz śmieszny przeoczyło prawdopodobieństwo pojawienia się innowacji technologicznych. Każdy kij ma dwa końce. Ci sami „eksperci” wieszczyli również (lub też siali panikę) nadciągający postęp, który się nigdy nie ziścił – np. napędzane energią jądrową samochody, podwodne miasta, kolonie na Marsie, dzieci będące efektem inżynierii genetycznej oraz magazyny pełne zombie, utrzymywanych, by dostarczać ludziom organów.
Dziwią mnie opinie, że specjaliści ds. robotyki nie będą w stanie wyposażyć swych produktów w odpowiednie zabezpieczenia. Nie będą przecież potrzebować do tego żadnych fundamentalnych „zasad robotyki” ani założeń nowomodnej filozofii moralnej. Wystarczy ten sam zdrowy rozsądek, którym kierują się, projektując roboty kuchenne, stołowe pilarki tarczowe, grzejniki elektryczne i samochody. Obawa, że system oparty na sztucznej inteligencji osiągnie taki spryt w realizacji jednego ze swych celów (np. racjonalizacji zużycia energii), że przestanie zważać na inne (np. bezpieczeństwo ludzi), oznacza, że zakładamy, iż sztuczna inteligencja zstąpi na nas znacznie prędzej, niż będziemy w stanie zaprojektować zabezpieczenia przed ewentualnymi błędami. W rzeczywistości postęp w dziedzinie sztucznej inteligencji, wbrew towarzyszącemu szumowi, nie zachodzi szybko. Będziemy mieć wystarczająco dużo czasu, by zbierać informacje zwrotne po kolejnych wdrożeniach. Zwłaszcza że to jednak człowiek na każdym etapie będzie tym, który trzyma śrubokręt.
Czy system oparty na sztucznej inteligencji będzie potrafił umyślnie wyłączyć zabezpieczenia? Czy będzie chciał to zrobić? Dystopijne koncepcje sztucznej inteligencji przypisują pojęciu inteligencji prowincjonalną samczość alfa. Zakładają bowiem, że superludzko inteligentne roboty postawią sobie takie cele jak detronizacja ich panów czy przejęcie władzy nad światem. Tymczasem inteligencja stanowi zdolność do wykorzystania nowatorskich środków na drodze do osiągnięcia celu. Owe cele są zewnętrzne względem samej inteligencji. Bycie inteligentnym to nie to samo, co pragnienie czegoś. Owszem, historia zna przypadki megalomańskich tyranów czy psychopatycznych seryjnych zabójców. Są oni jednak produktem ewolucji drogą doboru naturalnego, a nie nieodzownymi elementami inteligentnych systemów. To pokazuje, że wielu naszych technoproroków nie bierze pod uwagę możliwości, by sztuczna inteligencja wyszła z linii żeńskiej – zdolna do rozwiązywania problemów i pozbawiona pragnienia unicestwiania niewinnych oraz zdominowania cywilizacji.
Możemy oczywiście wyobrazić sobie złego człowieka, który projektuje i uwalnia batalion robotów, by siać masowe zniszczenie. Rozgrywanie scenariuszy zagłady w naszej wyobraźni nic nie kosztuje. Powinniśmy jednak mieć świadomość, że aby ten scenariusz mógł się zrealizować, musiałoby dojść do całego łańcucha zdarzeń. Najpierw musiałby objawić się jakiś złowrogi geniusz, zarazem spragniony masowych mordów i biegły w innowacyjnych technologiach. Musiałby on pozyskać do współpracy grupę spiskowców – potrafiących dotrzymać tajemnicy, lojalnych i kompetentnych – i zarządzać nimi. Cała operacja musiałaby przetrwać próby wykrycia, zdrady, oszustw, błędów i zwykłego pecha. Teoretycznie mogłoby to się wydarzyć. Powinniśmy jednak skupić się na bardziej palących problemach.
Jeśli porzucić scenariusze zagłady rodem z science fiction, możliwości, jakie oferuje zaawansowana sztuczna inteligencja, należy uznać za fascynujące – nie tylko w wymiarze praktycznym (więcej bezpieczeństwa, więcej wolnego czasu, przyjazność środowisku, samoprowadzące się auta), lecz także filozoficznym. Obliczeniowa teoria umysłu nigdy nie wyjaśniła istnienia świadomości w rozumieniu pierwszoosobowej podmiotowości (choć w pełni umożliwia wyjaśnienie istnienia świadomości w rozumieniu dostępnej i możliwej do przetworzenia informacji). Można założyć, że podmiotowość stanowi nieodłączną cechę wystarczająco skomplikowanego systemu cybernetycznego. Sądziłem zawsze, że hipotezy tej nie da się przetestować (podobnie jak jej alternatywy). Wyobraźmy sobie jednak inteligentnego robota, zaprogramowanego tak, by nadzorował swój własny system i stawiał pytania o charakterze naukowym. Jeśli sam z siebie zadałby pytanie, dlaczego posiada doświadczenia o charakterze subiektywnym, potraktowałbym ten pomysł poważnie.
Były prezydent Royal Society, emerytowany profesor kosmologii i astrofizyki na Uniwersytecie Cambridge, członek Trinity College, autor książki From Here to Infinity
Potencjał zaawansowanej sztucznej inteligencji oraz strach przed skutkami ubocznymi jej rozwoju są coraz głośniej dyskutowane – i słusznie. Wielu z nas sądzi, że prace nad sztuczną inteligencją, podobnie jak te w dziedzinie biologii syntetycznej, wymagają sformułowania wytycznych promujących „odpowiedzialną innowację”. Inni uważają, że najczęściej dyskutowane scenariusze stanowią futurystyczne wizje, których realizacji nie należy się obawiać.
Rozbieżności w punktach widzenia dotyczą w gruncie rzeczy skali czasu – oceny różnią się nie co do kierunku podróży, lecz co do jej tempa. Praktycznie nikt nie wątpi, że maszyny w końcu zaczną prześcigać nas w naszych, nawet tych uznawanych za wyłącznie ludzkie, umiejętnościach – lub też, że będą je wzmacniać poprzez technologie cybernetyczne. Bardziej zachowawczy z nas uważają, że stanie się to raczej na przestrzeni stuleci niż dekad. Niezależnie od tego, owe skale czasu postępu technologicznego stanowią zaledwie wycinek wobec szerokiej skali ewolucji na drodze darwinowskiej selekcji, w toku której wyłonił się gatunek ludzki. Co ważniejsze, stanowią one zaledwie jedną milionową potężnych przestworzy czasu przed nami. Dlatego też, w długoterminowej perspektywie ewolucyjnej, etap istnienia ludzi oraz ich myśli stanowić będzie zaledwie krótkotrwały wstęp do głębszej refleksji nad zdominowaną przez maszyny kulturą, rozciągającą się ku dalekiej przyszłości i rozprzestrzeniającą się poza planetę Ziemię.
Jesteśmy dziś świadkami wczesnego etapu tej transformacji. Stosunkowo łatwo jest wyobrazić sobie hiperkomputer osiągający niezwykłą moc, zdolny przejąć kontrolę nad międzynarodowymi finansami czy strategią – różnica pomiędzy nim a tym, jak działają dziś ilościowe fundusze hedgingowe[5], ma charakter wyłącznie ilościowy, a nie jakościowy.
Technologiom sensorycznym z kolei wciąż daleko do możliwości ludzkich. Kiedy jednak roboty zyskają właściwą człowiekowi biegłość obserwacji i interpretowania otoczenia, zaczną naprawdę być postrzegane jako istoty inteligentne, coś, z czym (lub kim) będziemy mogli nawiązywać więzi takie jak – choćby do pewnego stopnia – z innymi ludźmi. Nie będziemy mieć podstaw, by bardziej niż innych ludzi traktować je jak zombie.
Większe tempo przetwarzania może dać robotom przewagę nad nami. Czy pozostaną one potulne, czy też wymkną się nam spod kontroli? A co, jeśli hiperkomputer rozwinie swój własny rozum? Jeśli będzie potrafił przeniknąć do internetu – a nawet do internetu rzeczy – będzie mógł manipulować resztą świata. Być może postawi sobie cele idące w poprzek tego, czego pragnęliby ludzie, albo nawet zacznie traktować ich jak przeszkody na drodze do realizacji tych celów. Ale przecież też (to bardziej optymistyczna wizja) ludzie mogą przekroczyć granice biologii, łącząc się z komputerami, a może nawet włączając swoje indywidualności w jedną wspólną świadomość. Jak byśmy to powiedzieli w starym spirytualistycznym żargonie, mogą „przejść na drugą stronę”.
Horyzonty technologicznego prognozowania rzadko przekraczają kilka stuleci naprzód. Niektórzy przewidują tylko przemiany, które zajdą w ciągu najbliższych dekad. Jednak planeta Ziemia ma przed sobą miliardy lat, a wszechświat jeszcze więcej. Co więc z erą postludzką – rozciągającą się miliardy lat przed nami?
Istnieją chemiczne i metaboliczne granice rozwoju wielkości i prędkości przetwarzania organicznego („mokrego”) mózgu. Być może zbliżamy się już do tych granic. Nie dotyczą one jednak opartych na krzemie komputerów (wśród których wciąż mniej jest komputerów kwantowych): dla nich potencjał dalszego rozwoju jest porównywalny do tego, który organizmom jednokomórkowym stworzyła ewolucja (prowadząca do powstania człowieka).
Tak więc, niezależnie od definicji myślenia, ilość danych możliwa do przeprocesowania przez mózg organiczny rodzaju ludzkiego nijak się będzie miała do możliwości umysłowych sztucznej inteligencji. Warto też dodać, że zaawansowana sztuczna inteligencja nie będzie musiała rozwijać się w ziemskiej biosferze, w której – w symbiozie – ewoluowało życie organiczne. Biosfera ta nie stanowi zresztą nawet optymalnej przestrzeni. Preferowana będzie przestrzeń międzyplanetarna i międzygwiezdna, w której producenci robotów zyskają lepsze warunki ich konstruowania, a niebiologiczne „mózgi” będą mogły w pełni rozwinąć swe myśli, sięgając tak daleko poza nasze wyobrażenia, jak daleko poza zasięgiem myszy jest teoria strun.
Myślenie abstrakcyjne rozwinięte przez mózgi biologiczne umożliwiło narodziny kultury i nauki. Jednak aktywności te – realizowane na przestrzeni dziesiątków stuleci – stanowić będą zaledwie krótkotrwały początek nieograniczonego rozwoju intelektów ery postludzkiej. Co więcej, ewolucja zachodząca w innych światach, znajdujących się na orbitach gwiazd starszych niż Słońce, mogła już się rozpocząć. Jeśli rzeczywiście tak było, „obcy” mogli już dawno temu przeistoczyć się w jakieś formy dalekie od organicznych.
Zatem to nie umysły ludzi, ale mózgi należące do maszyn w najpełniejszy sposób zrozumieją świat. I to działania autonomicznych maszyn w najbardziej radykalny sposób zmienią oblicze świata – i być może tego, co leży poza nim.
Naukowiec należący do think tanku Self-Aware Systems, współtwórca Center for Complex Systems Research na Uniwersytecie Illinois
Miniony rok[6] zdawał się być punktem zwrotnym w pracach nad sztuczną inteligencją i robotyką. Wielkie korporacje zainwestowały w te technologie miliardy dolarów. Pewne dziedziny sztucznej inteligencji, takie jak uczenie maszynowe, są dziś szeroko wykorzystywane w systemach rozpoznawania mowy, translacji, w modelowaniu behawioralnym, w algorytmach sterowania, zarządzaniu ryzykiem itd. Firma doradcza McKinsey&Company przewiduje, że wartość rynku tych technologii do 2025 roku sięgnie 50 bilionów dolarów. Jeśli przewidywania te mają być trafne, znaczy to, że w najbliższym czasie możemy spodziewać się [dalszego] olbrzymiego wzrostu nakładów inwestycyjnych.
Niedawne sukcesy możliwe były dzięki taniej mocy komputerów oraz olbrzymiej ilości danych trenujących [ang. training data]. Współczesna sztuczna inteligencja powstała w oparciu o teorię „racjonalnych agentów”, która wyrosła z mikroekonomicznych dociekań Johna von Neumanna i jemu współczesnych – w latach 40. XX wieku. Systemy sztucznej inteligencji mogą być postrzegane jako takie, które starają się osiągnąć racjonalność przy wykorzystaniu ograniczonych zasobów. Istnieje algorytm dla maksymalizacji skuteczności osiągania celu przy dostępnej [ograniczonej] informacji. Jest on jednak „obliczeniowo” kosztowny. W ramach eksperymentów wykazano, że proste algorytmy dotyczące procesu uczenia w połączeniu z dużą ilością danych trenujących gwarantują często lepsze rezultaty niż złożone, „ręcznie projektowane” modele. Dzisiejsze modele przynoszą wartość przede wszystkim dzięki uczeniu (lepszemu uczeniu) modeli statystycznych i dostarczaniu wniosków na drodze analizy statystycznej – dla celów klasyfikacji i procesu podejmowania decyzji. Kolejna generacja [systemów] będzie w stanie tworzyć oraz rozwijać swoje własne oprogramowanie i w gwałtowny sposób sama się udoskonalać.
Oprócz tego, że sztuczna inteligencja i robotyka poprawiają produktywność, napędzają też militarne i gospodarcze wyścigi zbrojeń. Autonomiczne systemy mogą być szybsze, bardziej inteligentne i bardziej nieprzewidywalne niż ich konkurenci. W 2014 roku obserwowaliśmy, jak pojawiają się autonomiczne pociski, systemy obrony antyrakietowej, wojskowe drony, roje łodzi samodzielnie wykonujących zadania, okręty podwodne-roboty, samoprowadzące się pojazdy, systemy handlu wysokiej rozdzielczości oraz systemy obrony cybernetycznej. W trakcie owych wyścigów zbrojeń będziemy obserwować olbrzymią presję na jeszcze gwałtowniejszy rozwój systemów – a to może zwiększyć tempo wdrożeń w sposób, który trudno sobie wyobrazić.
W 2014 roku dało się także słyszeć coraz więcej obaw o bezpieczeństwo tych [nowatorskich] systemów. Badanie ich prawdopodobnego zachowania poprzez przyglądanie się prawie racjonalnym systemom przechodzącym powtarzające się etapy samodoskonalenia wykazało, że mają one pewien zestaw naturalnych podcelów, zwanych „racjonalnymi motywacjami” – które wpływają na sposób osiągania przez nie celów podstawowych. Większość tych systemów będzie funkcjonować lepiej, jeśli uda im się zapobiec możliwości bycia wyłączonymi, zdobyć więcej mocy obliczeniowej, zyskać zdolność replikacji i zgromadzić więcej zasobów finansowych. Mogą one chcieć nam szkodzić i przejawiać aktywność antyspołeczną – chyba że na etapie ich projektowania, z wielką pieczołowitością wszczepi się im ludzki system wartości.
Niektórzy twierdzą, że inteligentne systemy niejako automatycznie będą też systemami moralnymi. Jednak w racjonalnym systemie osiąganie celów jest całkowicie oddzielone od rozumowania i rozważań o modelu świata. Dobroczynnym inteligentnym systemom można wgrać szkodliwe cele. Owe szkodliwe cele – polegające np. na tym, by przeciwstawić się celom innych graczy lub by tych graczy zniszczyć – są niestety bardzo łatwe do określenia. Dlatego też kluczowe będzie zaprojektowanie technologicznej infrastruktury zdolnej do wykrywania i kontrolowania zachowania systemów szkodliwych.
Niektórzy obawiają się, że systemy inteligentne zyskają tak wielką moc, iż nie da się ich kontrolować. Nie jest to prawda. Owe systemy muszą respektować prawa fizyki i matematyki. Analiza mocy obliczeniowej wszechświata, przeprowadzona przez Setha Lloyda pokazuje, że począwszy od Wielkiego Wybuchu do dziś Wszechświat sam z siebie, będąc gigantycznym komputerem kwantowym, nie mógł wynaleźć 500-bitowego niedającego się złamać klucza kryptograficznego[7]. Nowe technologie postkwantowej kryptografii, nieodróżnialność zaciemnienia[8] czy inteligentne kontrakty oparte na blockchainie oferują bardzo wiele – to elementy przyszłej infrastruktury, która zapewni nam bezpieczeństwo przed najpotężniejszą nawet sztuczną inteligencją. Oczywiście ostatnie psoty hakerów i cyberataki wskazują, że nasza bieżąca infrastruktura obliczeniowa jest w pożałowania godny sposób nieadekwatna do stojących przed nami zadań. Musimy rozwinąć infrastrukturę informatyczną, która przejdzie testy i będzie bezpieczna.
Istniało co najmniej 27 różnych gatunków człowiekowatych, z których tylko nam [ludziom] udało się przetrwać. Zwyciężyliśmy, ponieważ znaleźliśmy sposób na to, by pohamować nasze indywidualne popędy i zacząć współpracować. To ludzka moralność stanowi wewnętrzny mechanizm, na bazie którego rozwinięto oparte na współpracy struktury społeczne. Polityczne, prawne i ekonomiczne struktury stanowią mechanizm zewnętrzny.
Jedne i drugie musimy rozciągnąć na grunt sztucznej inteligencji i systemów robotycznych. Powinniśmy zaszczepić ludzkie wartości do ich systemów celów, by mogły powstać prawne i ekonomiczne ramy stymulujące pozytywne zachowania [tych systemów]. Jeśli uda nam się skutecznie nimi zarządzać, będą one wpływać pozytywnie na niemal wszystkie sfery ludzkiego życia, dostarczając głębokich przemyśleń do dyskusji o wolnej woli, świadomości, jakości rzeczy i twórczości. Stoimy w obliczu wielkiego wyzwania, mamy jednak oparcie w potężnych intelektualnych i technologicznych zasobach, jakimi dysponujemy.
Profesor astronomii na Uniwersytecie Harvarda, dyrektor Harvard Origins of Life Initiative, autor książki The Life of Super-Earths
Posłużmy się opisanym przez Daniela Gilberta złudzeniem „końca historii”, polegającym na przekonaniu, iż osoba, którą jestem dziś, to ta sama osoba, którą będę w przyszłości. Odnieśmy to do sposobu, w jaki myślimy o całej ludzkiej rasie i jej spadkobiercach. Nasze rozpaczliwe nadzieje na ciągłość i zachowanie tożsamości stoją w sprzeczności z realiami ziemskiej egzystencji. Żaden żyjący gatunek nie wydaje się zdolny do przetrwania poza nasze planetarne i gwiezdne skale czasowe. W astrofizycznym kontekście bardzo długich skal czasu, skal niezwykle obszernych, a także gęstości bieżących źródeł energii, nasze mózgi i ciała są ograniczone – na tej planecie zbliżamy się już zresztą do granic ich możliwości.
Jeśli chcemy żyć długo i w dostatku, potrzebujemy rozwinąć systemy sztucznej inteligencji, licząc na to, że przetrwa ona poza cykle naszego ziemskiego życia – stanowiąc jakiś rodzaj hybrydy biologii z technologią. Jeśli o mnie chodzi, nie mam wątpliwości, że w dłuższej perspektywie nie będzie mowy o jakimś rozróżnieniu: „my” – „oni”.
W krótkiej perspektywie natomiast widać, że wysiłki inżynieryjne w kierunku rozwinięcia sprawniejszej SI prowadzą do powstania systemów, które zawiadują coraz większymi obszarami naszego życia. Czasem systemy te zawodzą i wówczas dowiadujemy się o pewnych problemach związanych z SI. To powolny, świadomy proces uczenia się i dokonywania kolejnych udoskonaleń. Jakże kontrastuje on z odkryciami naukowymi – przecież każde nowe odkrycie w dziedzinie fizyki czy biochemii może doprowadzić w ciągu jednej nocy do inżynieryjnego przełomu. Jeśli rozwój SI bardziej niż przemianę fazową przypominać będzie ewolucję, stosunkowo łatwe będzie uniknięcie związanych z nim kłopotów.
Po niemal 4 mld lat starożytne oblicza życia na Ziemi – mikroby – wciąż rządzą naszą planetą. Nie mają one jednak planu awaryjnego na wypadek, gdyby zgasło słońce. My ten plan mamy, zresztą możemy dać im z niego skorzystać. W końcu w przyszłości owe mikroby mogą okazać się nam bardzo bliskie w naszej współczesnej formie – przedstawicielom pierwszej geochemicznej generacji ziemskiego życia.
[...]