Moralna AI. Czy bać się sztucznej inteligencji - Jana Schaich Borg, Walter Sinnott-Armstrong, Vincent Conitzer - ebook + audiobook

Moralna AI. Czy bać się sztucznej inteligencji ebook i audiobook

Jana Schaich Borg, Walter Sinnott-Armstrong, Vincent Conitzer

4,5

Ten tytuł dostępny jest jako synchrobook® (połączenie ebooka i audiobooka). Dzięki temu możesz naprzemiennie czytać i słuchać, kontynuując wciągającą lekturę niezależnie od okoliczności!
Opis

Dający do myślenia przewodnik po wszystkich najważniejszych problemach związanych ze sztuczną inteligencją.

Rewolucja związana z rozwojem sztucznej inteligencji już się rozpoczęła. Nie ulega wątpliwości, że systemy AI będą odgrywały w naszym życiu coraz większą rolę. Niektórzy widzą w tym początek epoki innowacji i wygody, inni niepokoją się wynikającymi z tego zagrożeniami. Jedno jest jednak pewne: ta technologia nie przypomina niczego, z czym do tej pory mieliśmy do czynienia.

W „Moralnej AI” znani badacze w dziedzinie psychologii moralności, filozofii i sztucznej inteligencji mierzą się z tymi trudnymi problemami. Opisują najnowsze postępy w tej dziedzinie, odrzucając przy tym utarte błędne opinie. Przedstawiają przejrzystą analizę i twierdzą, że sztuczną inteligencję można tworzyć i bezpiecznie wykorzystywać, ale aby to osiągnąć, musimy jej wpoić wartości. Lektura obowiązkowa dla każdej myślącej osoby.

Jana Schaich Borg jest profesorem w Instytucie Badawczym Nauk Społecznych na Uniwersytecie Duke’a.

Walter Sinnott-Armstrong jest profesorem etyki praktycznej na Wydziale Filozofii i w Instytucie Etyki im. Kenana na Uniwersytecie Duke’a. Autor książek „Think Again”i „Moral Skepticisms”.

Vincent Conitzer jest profesorem informatyki w Carnegie Mellon University, gdzie kieruje pracą laboratorium Foundations of Cooperative AI (podstawy współpracującej sztucznej inteligencji). Jest także kierownikiem zespołu technicznego wykorzystania sztucznej inteligencji w Instytucie Etyki AI oraz profesorem informatyki i filozofii na Uniwersytecie Oksfordzkim.

Ebooka przeczytasz w aplikacjach Legimi na:

Androidzie
iOS
czytnikach certyfikowanych
przez Legimi
czytnikach Kindle™
(dla wybranych pakietów)
Windows
10
Windows
Phone

Liczba stron: 393

Audiobooka posłuchasz w abonamencie „ebooki+audiobooki bez limitu” w aplikacjach Legimi na:

Androidzie
iOS

Czas: 10 godz. 29 min

Lektor: Mateusz Bosak
Oceny
4,5 (4 oceny)
2
2
0
0
0
Więcej informacji
Więcej informacji
Legimi nie weryfikuje, czy opinie pochodzą od konsumentów, którzy nabyli lub czytali/słuchali daną pozycję, ale usuwa fałszywe opinie, jeśli je wykryje.

Popularność




Tytuł oryginału

MORAL AI: AND HOW WE GET THERE

Copyright © Vincent Conitzer, Jana Schaich Borg

and Walter Sinnott-Armstrong, 2024

First published as MORAL AI:

AND HOW WE GET THERE in 2024

by Pelican, an imprint of Penguin

Press. Penguin Press is part of the

Penguin Random House group

of companies.

Projekt okładki

Marcin Słociński

Redaktor inicjujący

Adrian Markowski

Redakcja

Renata Bubrowiecka

Korekta

Małgorzata Denys

ISBN 978-83-8391-524-1

Warszawa 2024

Wydawca

Prószyński Media Sp. z o.o.

ul. Rzymowskiego 28, 02-697 Warszawa

www.proszynski.pl

Naszym dzieciom,

które będą żyły w świecie ukształtowanym

przez sztuczną inteligencję:

Dalii, Skye i Aidenowi,

Mirandzie i Nasie,

Naomi, Benowi i Aaronowi.

WSTĘP

Nasz trzyosobowy zespół składa się ze specjalistów w różnych dziedzinach: Jana zajmuje się głównie neuronauką i analizą danych, Walter jest przede wszystkim filozofem i etykiem, natomiast domeną Vince’a jest informatyka i teoria gier. Niełatwo jest skłonić do współpracy uczonych zajmujących się tak odmiennymi obszarami wiedzy, a gdy już się to uda, kolejnym wyzwaniem jest doprowadzenie do tego, by się wzajemnie zrozumieli. Nam, na szczęście, udało się przezwyciężyć te trudności. Zdecydowaliśmy się na podjęcie współpracy, ponieważ głęboko niepokoją nas kwestie etyczne związane ze sztuczną inteligencją (AI, od ang. artificial intelligence) i chcemy nie tylko zrozumieć te problemy, ale także przedstawić praktyczne propozycje takiego rozwoju AI, by zminimalizować powodowane przez nią szkody moralne. Żadna pojedyncza dziedzina nauki nie daje nadziei na uporanie się z tak złożonymi kwestiami.

Cała nasza trójka patrzy z optymizmem na przyszłość sztucznej inteligencji, ale zgadzamy się, że jej rozwój musi przebiegać w sposób przemyślany i odpowiedzialny. Często słyszy się skrajne opinie na temat AI – mówi się o niej jako o czymś jednoznacznie dobrym lub złym – my jednak zdajemy sobie sprawę, że drzemią w niej ogromne możliwości czynienia zarówno dobra, jak i zła. W tej książce chcieliśmy w wyważony sposób wyjaśnić pozytywne i negatywne skutki działania sztucznej inteligencji, tak by można było zwiększyć korzyści płynące z jej stosowania, ograniczając jak najbardziej związane z nią zagrożenia.

Nasza współpraca rozpoczęła się od serii nieformalnych rozmów, których efektem było szybkie zawiązanie się grupy badawczej. W różnych okresach działania tego zespołu należeli do niego studenci z Uniwersytetu Duke’a (szczególnie Rachel Freedman w obszarze informatyki i Max Kramer w dziedzinie filozofii), magistranci z różnych instytutów (szczególnie Kenzie Doyle), doktoranci z kierunków biznesowych (Daniela Goya-Tochetto) i informatyki (Vijay Keswani, Yuan Deng i Duncan McElfresh), stażyści po doktoracie z filozofii (Gus Skorburg, Lok Chan i Kyle Boerstler), a także inni pracownicy uczelni (John Dickerson i Hoda Heidari z wydziału informatyki). Zespół nadal regularnie się spotyka i często rekrutujemy do niego nowych członków, zajmujących się różnymi dziedzinami.

Jesteśmy niezmiernie wdzięczni za pomoc, jaką otrzymaliśmy od tych współpracowników, a także wielu przyjaciół i studentów – zbyt licznych, by ich tu wszystkich wymienić – którzy dzielili się z nami cennymi uwagami i przemyśleniami na temat naszych artykułów naukowych i wystąpień. Dziękujemy Rachel Freedman, Alice Wong, Hodzie Heidari, Benowi Evie i studentom uczęszczającym na zajęcia z filozofii AI za ciekawe spostrzeżenia po lekturze maszynopisu książki. Casiana Ionita i pracownicy wydawnictwa Penguin Press zasłużyli na naszą ogromną wdzięczność za okazane nam wsparcie i cierpliwość, gdy pandemia COVID-19 spowolniła nasze prace. Oczywiście pragniemy również podziękować naszym najbliższym, którzy wykazali się dużą wyrozumiałością, gdy poświęcaliśmy czas na przygotowanie tej książki mimo ogromnych trudności związanych z pandemią i pojawieniem się trzech nowych członków naszych rodzin.

Niektóre części są rozwinięciem opublikowanych już wcześniej artykułów i rozdziałów innych książek, przedrukowujemy więc w nich fragmenty tych tekstów, ale w nieco zmienionej postaci. W szczególności rozdział 6 opiera się na artykule How AI can aid bioethics („Jak AI może pomóc bioetyce”) Waltera Sinnotta-Armstronga i Gusa Skorburga, który ukazał się w czasopiśmie „Journal of Practical Ethics” (2021, tom 9, nr 1). Rozdział 7 zawiera niektóre idee omówione w pracach Four investment areas for ethical AI: transdisciplinary opportunities to close the publication-to-practice gap („Cztery obszary inwestycji w etyczną AI: międzydyscyplinarne możliwości skrócenia czasu między publikacją koncepcji a jej wykorzystaniem w praktyce”, „Big Data and Society” 2021, tom 8, nr 2) i The AI field needs translational ethical AI research („W branży AI potrzebne są translacyjne badania etyki sztucznej inteligencji”, „AI Magazine” 2022, tom 43, nr 3) Jany Schaich Borg. Dziękujemy wydawcom i współautorom tych prac za zgodę na przetworzenie i wykorzystanie tych materiałów w naszej książce.

Na końcu pragniemy wyrazić wdzięczność za wsparcie finansowe naszych badań w ramach programów Duke Bass Connections i Duke Collaboratories (przyznane przez zastępcę rektora do spraw studiów interdyscyplinarnych na Uniwersytecie Duke’a), a także fundusze przekazane przez Future of Life Institute, Fundację Templetona, Narodową Fundację Nauki i OpenAI. Bez pomocy tych organizacji ta książka nie mogłaby powstać. Oczywiście wymienieni tu fundatorzy i dobroczyńcy nie ponoszą żadnej odpowiedzialności za jej zawartość. Ta odpowiedzialność spoczywa wyłącznie na nas.

WPROWADZENIE: NA CZYM POLEGA PROBLEM?

Nadchodzą roboty! Roboty przejmą nad nami władzę!” – takie pełne niepokoju okrzyki słyszymy coraz częściej między innymi za sprawą popularnych filmów, takich jak te z cyklu Matrix, które podsycają nasze lęki, że już wkrótce sztuczna inteligencja będzie kontrolować dosłownie wszystko. Nawet ci, którzy nie boją się, że staną się niewolnikami AI, mogą się obawiać, że pozbawi nas ona prywatności, a przeżywanie swojego życia tak, jak się każdemu z nas podoba, może się stać zbyt niebezpieczne. Sztuczna inteligencja może sprawić, że nie będzie wiadomo, czy e-mail lub zdjęcie są prawdziwe, i zmanipulować nas tak, że zagłosujemy w wyborach na groźnych kandydatów lub kupimy produkty, których tak naprawdę nie potrzebujemy. Może nam zaszkodzić na wiele sposobów. Pesymiści uważają, że aby uniknąć tych zagrożeń, musimy zatrzymać – a przynajmniej spowolnić – jej rozwój, zanim będzie za późno.

Inni patrzą jednak w przyszłość z większym optymizmem. Mają nadzieję, że sztuczna inteligencja będzie wykonywała prace, z którymi ludzie nie radzą sobie najlepiej lub których po prostu starają się unikać. Osoby te nie czują zagrożenia ze strony pojazdów autonomicznych, ponieważ bardziej obawiają się pijanych kierowców. Dużą otuchą napawają je wyniki analiz wskazujące na to, że dzięki autom samojezdnym uda się uniknąć wielu wypadków śmiertelnych. Zamiast obawiać się zabójczych dronów, mają nadzieję, że położą one kres błędom i zbrodniom dokonywanym przez żołnierzy pod wpływem intensywnych przeżyć, niewiedzy lub braku snu. Wierzą, że sztuczna inteligencja umożliwi szybki postęp w rozwoju nauki i medycyny, dzięki czemu poprawi się jakość naszego życia. Niektórzy mają nawet nadzieję, że połączenie człowieka z zaawansowaną AI doprowadzi do powstania gatunku o zupełnie nowych wspaniałych zdolnościach. Tacy optymiści sprzeciwiają się wszelkim próbom spowolnienia rozwoju sztucznej inteligencji, ponieważ zależy im na jak najszybszym osiągnięciu tych korzyści.

Kto ma rację? Czy powinniśmy patrzeć na sztuczną inteligencję z nadzieją, czy z lękiem? Czy szklanka jest do połowy pełna, czy pusta? Nasza odpowiedź brzmi: jest i tak, i tak. Docierają do nas pewne niepokojące wieści, które dają podstawy do tego, by obawiać się niektórych zastosowań sztucznej inteligencji, ale jednocześnie są i dobre wiadomości, świadczące o tym, że inne przeznaczenia mogą być korzystne. W niektórych przypadkach mamy nawet jednocześnie powody do obaw i nadziei. Istnienie sztucznej inteligencji daje nam więc podstawy zarówno do pesymizmu, jak i optymizmu:

Transport

Dobra wiadomość: Steve Mahan jest niewidomy, ale dzięki autonomicznemu samochodowi może się swobodnie poruszać po miejscowości Santa Clara w Kalifornii, czasami nawet zupełnie sam1.

Zła wiadomość: Joshua Brown zginął w maju 2016 roku, gdy jego tesla model S, działająca w trybie autonomicznym, zderzyła się z białą ciężarówką, której sztuczna inteligencja nie potrafiła odróżnić od jasnego nieba2.

Wojskowość

Dobra wiadomość: wyposażony w sztuczną inteligencję robot saperski może dotrzeć do trudno dostępnych miejsc i rozbroić lub zdetonować śmiertelnie niebezpieczne ładunki bez narażania życia ludzi3.

Zła wiadomość: na poligonie Lohatlha w Republice Południowej Afryki sterowane przez sztuczną inteligencję działko przeciwlotnicze Oerlikon GDF-005 wymknęło się spod kontroli i wystrzeliło setki pocisków, zabijając dziewięć osób i raniąc czternaście4.

Polityka

Dobra wiadomość: sztuczną inteligencję można wykorzystać do wyznaczenia okręgów wyborczych w Karolinie Północnej w taki sposób, by były sprawiedliwe dla obu partii i różnych grup interesu5.

Zła wiadomość: w 2016 roku firma konsultingowa Cambridge Analytica wykorzystała sztuczną inteligencję wyuczoną na osobistych danych 87 milionów użytkowników Facebooka, które zostały udostępnione bez ich wiedzy, by wpłynąć na wyniki wyborów prezydenckich w Stanach Zjednoczonych6.

Prawo

Dobra wiadomość: firma ThoughtRiver zapewnia, że stworzyła program wykorzystujący sztuczną inteligencję, który czyta umowy prawne, odpowiada na ważne pytania na ich temat i sugeruje, co w tych przypadkach należy zrobić, a wszystko to oferowane jest za zdecydowanie mniejszą opłatą, niż proponują zawodowi prawnicy7.

Zła wiadomość: Eric Loomis został skazany na sześć lat więzienia, ponieważ program do oceny ryzyka uznał, że stanowi duże zagrożenie dla społeczeństwa. Nie jest jasne, jak działająca w tym programie sztuczna inteligencja ocenia ryzyko, ponieważ algorytm jest własnością firmy, ale krytycy uważają, że jest negatywnie nastawiona do przedstawicieli określonej płci lub grup etnicznych, na przykład do grupy, do której należy Eric Loomis8.

Medycyna

Dobra wiadomość: w 2015 roku sztuczna inteligencja firmy IBM o imieniu Watson wykryła u pewnej kobiety rzadką odmianę białaczki, której lekarze początkowo nie zauważyli. Później medycy oświadczyli: „Po przeprowadzeniu drobiazgowej analizy danych doszlibyśmy ostatecznie do tego samego wniosku, ale szybkość Watsona jest kluczowa w leczeniu białaczki, która rozwija się szybko i może doprowadzić do komplikacji”9.

Zła wiadomość: brak obiektywizmu przy doborze danych użytych do wyuczenia pewnej sztucznej inteligencji służącej do przewidywania potrzeby opieki wysokiego ryzyka doprowadziła do silnego uprzywilejowania białych pacjentów w porównaniu z osobami czarnoskórymi, nawet gdy chodzi o dokładnie taki sam stopień zaawansowania choroby10.

Finanse

Dobra wiadomość: oparte na sztucznej inteligencji narzędzia do doradztwa finansowego i inwestycyjnego, takie jak systemy proponowane przez firmy Betterment, Wealthfront i Wealthsimple, są zdaniem ich twórców co najmniej tak dokładne jak ludzcy specjaliści. Z uwagi na niewielki minimalny poziom inwestycji i nieduży koszt transakcji dzięki takim zautomatyzowanym doradcom osoby o niższych dochodach mogą skorzystać z porad finansowych, które do tej pory były dostępne tylko dla ludzi zamożnych i uprzywilejowanych11.

Zła wiadomość: 6 maja 2010 roku o godzinie 14:45 indeks giełdowy Dow Jones Industrial Average spadł o 998,5 punktu w ciągu zaledwie kilku minut w wyniku tego, że korzystający ze sztucznej inteligencji system obrotu akcjami uruchomił samonapędzającą się zautomatyzowaną wyprzedaż walorów, przeprowadzoną z zawrotną szybkością, która spowodowała załamanie rynku12.

Marketing

Dobra wiadomość: dzięki wykorzystaniu sztucznej inteligencji podczas realizacji programu społecznego Have You Heard? (Czy słyszałeś?) udało się skłonić większą liczbę bezdomnych młodych osób do wykonania testu na obecność wirusa HIV. Liczba badań przeprowadzonych w tej grupie wzrosła o 25 procent dzięki temu, że algorytm trafnie wytypował osoby mające największy wpływ na użytkowników różnych portali społecznościowych13.

Zła wiadomość: w 2021 roku jeden ze sklepów sieci Target przesłał szesnastoletniej klientce kupony na artykuły dla niemowląt, ponieważ system sztucznej inteligencji uznał na podstawie historii jej zakupów, że jest w ciąży. Ojciec poskarżył się kierownikowi sklepu na niewłaściwe traktowanie jego córki, ale później nastolatka wyznała, że rzeczywiście spodziewa się dziecka14.

Sztuka

Dobra wiadomość: serwisy Pandora i Spotify (a także inne) wykorzystują sztuczną inteligencję do analizy gustów użytkowników, dzięki czemu mogą nam polecać nowe utwory i artystów, których być może nigdy nie odkrylibyśmy bez takiej usługi15.

Zła wiadomość: sztuczna inteligencja stworzyła wiele imponujących dzieł sztuki, których cena na rynku aukcyjnym sięga nawet 432 500 dolarów16. Problem polega na tym, że mogła tego dokonać tylko dlatego, że uczyła się na obrazach namalowanych przez ludzi, które zostały wykorzystane w tym celu bez zgody autorów, nierzadko z pogwałceniem przysługujących im praw. Artyści nie otrzymali żadnej zapłaty za ich użycie. Teraz, gdy powstała już sztuczna inteligencja tworząca dzieła sztuki, bardzo trudno będzie zmusić algorytmy, by „wymazały z pamięci” obrazy tych artystów, którzy nie zgadzają się na wykorzystanie ich prac, nawet jeśli zostały one opatrzone informacją o prawach autorskich.

Media

Dobra wiadomość: dziennik „Los Angeles Times” wykorzystuje algorytm o nazwie Quakebot do ostrzegania czytelników przed trzęsieniami ziemi w Kalifornii. System ten działa szybciej i dokładniej niż tradycyjne metody ostrzegania ludności17.

Zła wiadomość: w 2023 roku Muharrem Ince, kandydat na prezydenta Turcji, wycofał się z wyborów z powodu filmu erotycznego z jego udziałem, który został umieszczony na Facebooku. Ince twierdził, że film nie jest prawdziwy, ale został stworzony przez sztuczną inteligencję i pokazane w nim sceny są fałszem. Podczas tych samych wyborów prezydenckich w sieci krążył jeszcze jeden nieprawdziwy film z wiadomością, że organizacja terrorystyczna wspiera Kemala Kılıçdaroğlu, innego z kandydatów. „Gdy użytkownicy internetu poszukiwali tego dnia w serwisie Google informacji o Kemalu Kılıçdaroğlu, otrzymywali listę wyników, w której algorytm umieszczał na pierwszym miejscu tę właśnie nieprawdziwą wiadomość”18.

Bezpieczeństwo

Dobra wiadomość: sztuczną inteligencję udało się z powodzeniem wykorzystać do poszukiwania kłusowników w Indiach i Afryce, a nawet przewidywania organizacji nielegalnych polowań. Dzięki temu strażnicy leśni mog­li skutecznie interweniować, zanim do nich doszło. AI specjalizująca się w teorii gier może także optymalizować trasy patroli, co pozwala sprawnie łapać kłusowników i demontować rozstawiane przez nich pułapki19.

Zła wiadomość: rząd chiński „posługuje się rozbudowanym tajnym systemem wykorzystującym zaawansowany algorytm rozpoznawania twarzy do śledzenia i kontrolowania Ujgurów, którzy stanowią w większości muzułmańską mniejszość w tym kraju”20. Inne kraje również przyznają się do wykorzystywania sztucznej inteligencji do rozpoznawania twarzy lub stosowania podobnych technik śledzenia obywateli21.

Środowisko

Dobra wiadomość: firma Blue River Technology wykorzystuje kamerę sterowaną przez sztuczną inteligencję do „przeglądania” gruntów rolnych. Sztuczna inteligencja odróżnia uprawy od chwastów i określa, jakie konkretne herbicydy należy zastosować, by pozbyć się tylko samych chwastów. Twórcy tego systemu zapewniają, że dzięki jego stosowaniu udaje się uniknąć ryzyka uodpornienia się chwastów na herbicydy i jednocześnie zmniejszyć wydatki ponoszone przez plantatorów bawełny na środki ochrony roślin22.

Zła wiadomość: wyuczenie wielu wydajnych modeli sztucznej inteligencji wymaga użycia ogromnej mocy obliczeniowej. Szacuje się, że podczas „uczenia jednego modelu sztucznej inteligencji dochodzi do emisji takiej samej ilości węgla, jaką uwalnia do atmosfery pięć samochodów w całym okresie ich eksploatacji”23.

Wymienione tu problemy są tylko wierzchołkiem góry lodowej – zapewne każdy z nas mógłby podać wiele kolejnych przykładów. Ta próbka jednak doskonale ilustruje rodzaje złożonych problemów, z jakimi muszą się zmierzyć twórcy systemów sztucznej inteligencji i społeczeństwo. Omówimy je wszystkie bardziej szczegółowo w dalszej części książki.

Analizując potencjalne korzyści i zagrożenia wynikające ze stosowania sztucznej inteligencji, musimy jasno określić, jakie są ograniczenia i natura tej nowej technologii. Kiedy fragment kodu komputerowego przestaje być zwykłym programem i staje się sztuczną inteligencją? Czy sztuczna inteligencja naprawdę jest inteligentna? Czy może uzyskać świadomość? Czy AI może być pomysłowa i twórcza, czy też jedynie wykonuje bezmyślnie polecenia programistów? Czy AI jest zdolna do wykonywania zupełnie nowych zadań, czy też może tylko powielać prace wykonane kiedyś przez ludzi? Do jakich zastosowań nadaje się sztuczna inteligencja, a z jakimi rodzajami zadań zupełnie sobie nie radzi? Czy sztuczna inteligencja może przewyższyć inteligencją ludzi? Z tymi pytaniami zmierzymy się w następnym rozdziale.

Gdy już zrozumiemy, czym jest – i czym nie jest – sztuczna inteligencja, zastanowimy się, jak może ona wpływać na podstawowe wartości etyczne, takie jak:

– bezpieczeństwo – mamy tu na myśli samochody autonomiczne i zautomatyzowany sprzęt wojskowy, nieprawdziwe filmy i zdjęcia, media społecznościowe, roboty chirurgiczne i systemy AI, które mogłyby w przyszłości przejąć kontrolę nad naszym światem lub jakąś jego częścią;

– równość – w tym przypadku chodzi o ocenę zagrożenia kryminalnego na podstawie rasy, zamożności i płci, uprzedzenia ujawniające się w systemach wykorzystywanych w służbie zdrowia, stosowanie zautomatyzowanych doradców zwiększających dostęp do usług finansowych, a także powiększanie się nierówności społecznych spowodowanych utratą pracy w wyniku wprowadzania sztucznej inteligencji;

– prywatność – w tym obszarze przykładem niepokojących zjawisk jest skandal z Cambridge Analytica, wysyłanie kuponów przez sieć Target na podstawie przewidywania naszych potrzeb i w efekcie analizy naszych zachowań, a także śledzenie Ujgurów w Chinach;

– wolność – w tym przypadku mamy na myśli pomoc osobom niewidomym, takim jak Steve Mahan, w odzyskaniu możliwości poruszania się, ale także ograniczanie swobody religijnej i przemieszczania się w wyniku użycia systemów do śledzenia ludzi;

– przejrzystość – przykładem z tego obszaru może być sprawa Erica Loomisa, a także programy ze sztuczną inteligencją do oceny szkolnych prac domowych, różnego rodzaju podań, zdolności kredytowej i egzaminów na studiach;

– oszustwa – w tym przypadku chodzi oczywiście o nieprawdziwe filmy (deepfake) i zdjęcia tworzone przez sztuczną inteligencję, a także fałszywe doniesienia prasowe wykorzystywane do wpływania na wynik wyborów.

Niektóre zastosowania sztucznej inteligencji wpływają na wiele wymienionych tu wartości, ale należy pamiętać, że powyższa lista nie jest kompletna. Nawet jednak takie wstępne zestawienie doskonale pokazuje, że ze sztuczną inteligencją wiąże się wiele bardzo różnych i niezwykle poważnych problemów etycznych.

Z pewnością nie powinniśmy bagatelizować tych zagrożeń, ale z drugiej strony nie należy też ich wyolbrzymiać. W większości przypadków możliwe jest stworzenie i użytkowanie sztucznej inteligencji w sposób bezpieczny i etyczny, ale wymaga to uważnego przeanalizowania wymienionych tu kwestii natury moralnej. Spór toczący się wokół sztucznej inteligencji może łatwo doprowadzić do wylania dziecka z kąpielą i aby tego uniknąć, postaramy się naświetlić najważniejsze problemy etyczne, jakie się z tym wiążą, i wyjaśnić, dlaczego powinniśmy zwracać większą uwagę na etykę stosowania sztucznej inteligencji.

CIĄG DALSZY DOSTĘPNY W PEŁNEJ WERSJI

PEŁNY SPIS TREŚCI:

WSTĘP

WPROWADZENIE: NA CZYM POLEGA PROBLEM?

Rozdział 1. CZYM JEST SZTUCZNA INTELIGENCJA

Rozdział 2. CZY SZTUCZNA INTELIGENCJA MOŻE BYĆ BEZPIECZNA?

Rozdział 3. CZY SZTUCZNA INTELIGENCJA MOŻE RESPEKTOWAĆ PRYWATNOŚĆ?

Rozdział 4. CZY SZTUCZNA INTELIGENCJA MOŻE BYĆ SPRAWIEDLIWA?

Rozdział 5. CZY SZTUCZNĄ INTELIGENCJĘ MOŻNA POCIĄGNĄĆ DO ODPOWIEDZIALNOŚCI?

Rozdział 6. CZY SZTUCZNA INTELIGENCJA MOŻE PRZESTRZEGAĆ NASZYCH ZASAD MORALNYCH?

Rozdział 7. CO MOŻEMY ZROBIĆ?

Podsumowanie. WSZYSTKO ZALEŻY OD NAS

1 Zob. film Meet the Blind Man Who Convinced Google Its Self-Driving Car Is Finally Ready („Poznaj niewidomego, który przekonał firmę Google, że jej samochód autonomiczny jest już gotowy”), „Wired”, https://www.youtube.com/watch?v=X_d3MCkIvg8 (dostęp: 29 kwietnia 2024).

2 Alice Klein, Tesla driver dies in first autonomous car crash in US („Kierowca tesli ginie w pierwszym wypadku samochodu autonomicznego w USA”), „New Scientist”, 1 lipca 2016.

3 BBC Future, What does a bomb disposal robot actually do? („Do czego tak naprawdę służy robot saperski?”), http://www.bbc.com/future/story/20160714-what-does-a-bomb-disposal-robot-actually-do (dostęp: 29 kwietnia 2024).

4 Noah Schachtman, Robot cannon kills 9, wounds 14 („Zrobotyzowane działko zabiło 9 i zraniło 14 osób”), „Wired”, 18 października 2007.

5 Uniwersytet Duke’a, grupa badawcza Quantifying Gerrymandering, https://sites.duke.edu/quantifyinggerrymandering (dostęp: 29 kwietnia 2023).

6 Bloomberg, Facebook Cambridge Analytica Scandal: 10 Questions Answered („Skandal z Facebookiem i Cambridge Analytica: odpowiedź na 10 pytań”), „Fortune”, 18 kwietnia 2018, https://fortune.com/2018/04/10/facebook-cambridge-analytica-what-happened (dostęp: 29 kwietnia 2024). Margaret Hu, Cambridge Analytica’s black box („Czarna skrzynka Cambridge Analytica”), „Big Data and Society” 2020, tom 7, nr 2, s. 1–6. Nie jest do końca jasne, czy narzędzie to wywarło jakikolwiek rzeczywisty wpływ na wybory, ale ten przypadek daje podstawy do obaw, że sztuczną inteligencję można wykorzystać do manipulowania wyborami. Oczywiście gdyby to się powiodło, zwolennicy Donalda Trumpa nie uznaliby jego zwycięstwa za złą wiadomość, ale i tak mogliby się obawiać, że ich przeciwnicy zastosowują podobną strategię.

7 Portal firmy ThoughtRiver: https://www.thoughtriver.com (dostęp: 29 kwietnia 2024).

8 Proces Loomis przeciw stanowi Wisconsin, sygnatura sprawy: 881 N.W.2d 749 (Wis. 2016), odwołanie odrzucone, 137 S.Ct. 2290 (2017). Przypadek ten omówimy szczegółowo w rozdziale 4.

9 Nurfilzah Rohaidi, IBM’s Watson Detected Rare Leukemia In Just 10 Minutes („Watson firmy IBM wykrył rzadki przypadek białaczki zaledwie w 10 minut”), „AsianScientist”, 15 sierpnia 2016, https://www.asianscientist.com/2016/08/topnews/ibm-watson-rare-leukemia-university-tokyo-artificial-intelligence (dostęp: 29 kwietnia 2024).

10 Ziad Obermeyer i in., Dissecting racial bias in an algorithm used to manage the health of populations („Analiza stronniczości etnicznej algorytmu służącego do zarządzania opieką zdrowotną”), „Science” 2019, tom 366, nr 6464, s. 447–453.

11 Dziękujemy Colemanowi Kraemerowi za podsunięcie tego przykładu.

12 Wikipedia, 2010 flash crash („Błyskawiczny krach z 2010 roku”), https://en.wikipedia.org/wiki/2010_Flash_Crash (dostęp: 29 kwietnia 2024).

13 USC Center for AI in Society, HIV prevention among homeless youth by influence maximization („Zapobieganie HIV w społeczności młodych bezdomnych osób poprzez maksymalizację wpływu”), https://www.cais.usc.edu/projects/hiv-prevention-homeless-youth (dostęp: 29 kwietnia 2024).

14 Kashmir Hill, How Target figured out a teen girl was pregnant before her father did („Jak sklep Target domyślił się, że nastolatka jest w ciąży, wcześniej niż jej ojciec”), „Forbes”, https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did (dostęp: 29 kwietnia 2024). Dziękujemy Jillian Kohn za podsunięcie tego przykładu.

15 Francesca Giuliani-Hoffman, This snarky bot will brutally take you down for your Spotify taste („Bezlitosny bot brutalnie wytknie ci kiepski gust w serwisie Spotify”), CNN, 24 grudnia 2020, https://edition.cnn.com/2020/12/24/entertainment/spotify-ai-bot-judges-your-taste-in-music-trnd/index.html (dostęp: 29 kwietnia 2024).

16 Christie’s, Is artificial intelligence set to become art’s next medium? („Czy sztuczna inteligencja stanie się nowym środkiem wyrazu artystycznego?”), 12 grudnia 2018, https://www.christies.com/en/stories/a-collaboration-between-two-artists-one-human-one-a-machine-0cd01f4e232f4279a525a446d60d4cd1 (dostęp: 29 kwietnia 2024).

17 Los Angeles Times, What is the Quakebot and how does it work? („Czym jest Quakebot i jak działa?”), https://www.latimes.com/la-me-quakebot-faq-20190517-story.html (dostęp: 29 kwietnia 2024).

18 Demetrios Ioannou, Deepfakes, Cheapfakes, and Twitter Censorship Mar Turkey’s Elections („Nieprawdziwe informacje i cenzura na Twitterze utrudniają wybory w Turcji”), „Wired”, 26 maja 2023, https://www.wired.co.uk/article/deepfakes-cheapfakes-and-twitter-censorship-mar-turkeys-elections (dostęp: 29 kwietnia 2024).

19 Zoe Cormier, The technology fighting poachers („Technologia w walce z kłusownikami”), BBC Earth, https://www.bbcearth.com/news/the-technology-fighting-poachers (dostęp: 29 kwietnia 2024).

20 Paul Mozur, One month, 500,000 face scans: how China is using A.I. to profile a minority („Jeden miesiąc, 500 000 zeskanowanych twarzy: jak Chiny wykorzystują sztuczną inteligencję do śledzenia mniejszości”), „The New York Times”, 14 kwietnia 2019.

21 W odpowiedzi na te doniesienia rządy niektórych krajów rozważają wprowadzenie zakazu gromadzenia danych do rozpoznawania twarzy – takie kroki poczyniły na przykład władze stanu Illinois (https://web.archive.org/web/20220403105217/https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=3004&ChapterID=57). W przygotowywanych przez Unię Europejską przepisach regulujących użycie sztucznej inteligencji znajduje się między innymi zapis (rozdział II, artykuł 5) zakazujący „używania na potrzeby egzekwowania prawa w przestrzeni publicznej zdalnego systemu rozpoznawania biometrycznego, działającego w »czasie rzeczywistym«”, z wyłączeniem sytuacji wyjątkowych (https://artificialintelligenceact.eu/the-act; dostęp: 29 kwietnia 2024).

22 Natalie Gagliordi, How self-driving tractors, AI, and precision agriculture will save us from the impending food crisis („W jaki sposób samojezdne traktory, sztuczna inteligencja i rolnictwo precyzyjne uchronią nas przed kryzysem żywnościowym”), „TechRepublic”, grudzień 2018.

23 Karen Hao, Training a single AI model can emit as much carbon as five cars in their lifetimes („Proces uczenia jednego modelu AI może wymagać wyemitowania takiej samej ilości węgla, jaką uwalnia do atmosfery pięć samochodów w całym okresie ich eksploatacji”), „MIT Technology Review”, 6 czerwca 2019, https://www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes (dostęp: 29 kwietnia 2024).