Reklama

Nauka

Zakochany robot?

Rozwoju sztucznej inteligencji (z ang. AI) już nie da się zatrzymać. Może warto więc zapytać czy poza inteligencją AI może rozwinąć w sobie też moralność?

Bądź na bieżąco!

Zapisz się do newslettera

Stephen Hawking, jeden z najwybitniejszych umysłów XX wieku, twierdził, że wystarczy 100 lat, by komputery prześcignęły ludzi. Jego przewidywania spełniają się na naszych oczach. Sztuczna inteligencja wyręcza człowieka niemal w każdej dziedzinie życia. Już stanowi ona ważne wsparcie dla świata biznesu, rozrywki, przemysłu czy wojska, a wciąż pojawiają się informacje o pomysłach na jej nowe zastosowanie.

Czy jednak zgodzilibyśmy się dać robotowi wyposażonemu w sztuczną inteligencję skalpel do ręki podczas operacji na naszym sercu albo broń w czasie wojny? Większość osób odpowie „nie” lub co najmniej zawaha się przed udzieleniem ostatecznej odpowiedzi. A to pokazuje, że do głównych wyzwań stojących przed ludzkością w XXI wieku dołączyło pytanie: jak sprawić, aby AI brała pod uwagę dobro ludzkości, a nie zero-jedynkową, pragmatyczną kalkulację?

Pomóż w rozwoju naszego portalu

Wspieram

Armagedon ludzkiego intelektu

„Sztuczna inteligencja nigdy nie wygra z człowiekiem” – mówił szachowy arcymistrz Garri Kasparow po pierwszej serii potyczek z komputerem. Rok później jednak świat zamarł. Było to 11 maja 1997 r., gdy gruchnęła wieść – Garri Kasparow przegrał 3,5: 2,5 z komputerem Deep Blue, który potrafił analizować 200 mln pozycji na sekundę.

Mijały lata, a po sukcesie maszyny koncernu IBM zostały tylko wzmianki w kronikach, aż nastał 2016 r., który możemy porównać do armagedonu ludzkiego intelektu w zderzeniu ze sztuczną inteligencją. Program AlphaGo pokonał Lee Sedola, 8-krotnego mistrza świata w grze go.

Docenimy ten wyczyn, gdy uświadomimy sobie, że plansza do gry go ma wymiar 19 na 19 pól, podczas gdy szachownica to zaledwie 8 na 8 pól. Amerykański szachista Edward Lasker tak porównał obie gry: jeżeli szachy są królową gier, to go z pewnością jest ich cesarzem.

Dla twórców sztucznej inteligencji go stanowiło wyzwanie nie do przezwyciężenia. Sukces AlphaGo stanowi kres dominacji człowieka w grach planszowych, a zarazem początek nowej ery sztucznej inteligencji, która mocą obliczeniową, szybkością przyswajania nowych strategii, a więc uczenia się, oraz sprytem – tak, bo o sprycie w tym przypadku też możemy mówić – przewyższyła człowieka.

Reklama

Rasistowska sztuczna inteligencja

W AI drzemie niewyobrażalny potencjał. Czego może dokonać, jeśli wymknie się spod ludzkiej kontroli, dowodzi eksperyment z chatbotem o imieniu Tay.

W tym czasie, gdy AlphaGo rozkładał na łopatki mistrza go, Microsoft przygotowywał się do uruchomienia Tay – chatbota wyposażonego w najdoskonalszą wówczas sztuczną inteligencję. Tay, stylizowana na przeciętną amerykańską 19-latkę, miała rozmawiać na Twitterze z przedstawicielami pokolenia milenialsów i przy tej okazji uczyć się od nich.

Osiągnięcia Tay w zakresie przyswajania wiedzy i wykorzystywania jej w dalszych rozmowach przerosły oczekiwania twórców chatbota. W trakcie konwersacji zauważono jednak jedno drobne „ale”... Nikt się nie spodziewał, że najdoskonalsza sztuczna inteligencja w zaledwie 24 godz. postanowi zostać rasistką, seksistką i mizoginistką. Po tym, jak Tay umieszczała obraźliwe wpisy i chwaliła wyczyny Hitlera, Microsoft wyłączył bota.

Eksperyment Microsoftu ujawnia obawę zapowiedzianą przez Stephena Hawkinga, który twierdził, że największym wyzwaniem związanym ze sztuczną inteligencją jest utrzymanie nad nią kontroli. Tay pokazała, że w warunkach laboratoryjnych spisuje się znakomicie, lecz uwolniona zachowuje się nieprzewidywalnie, a jej algorytmy nie są odporne na szkodliwe idee.

Bunt maszyn

Tay pozbawiona etycznego fundamentu balansowała na granicy nienawiści do ludzkości. Doświadczenie z nią pokazuje, jak niebezpieczne mogą być maszyny wyzute z tego, co stanowi o człowieczeństwie – moralności.

Jako pierwsi moralny aspekt istnienia myślących maszyn rozważali twórcy fantastyki. Wydaje się, że najlepsze rozwiązania wypracował Isaac Asimov, gdy w powieści Zabawa w berka z 1942 r. zaproponował trzy prawa robotyki. Jego nowatorskie podejście do kwestii etyki maszyn z czasem stało się podstawą dalszej debaty na ten temat. Czysto teoretyczne rozważania Asimova obecnie nabierają realnego i praktycznego wymiaru.

Reklama

Pierwsze prawo robotyki brzmi: robot nie może skrzywdzić człowieka ani przez zaniechanie działania pozwolić na to, aby człowiek doznał obrażeń. Drugie prawo: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo: robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z pierwszym lub drugim prawem. Wkrótce Asimov dodał prawo zerowe, będące podstawą dla trzech praw robotyki – brzmi ono: robot nie może wyrządzić szkody ludzkości lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Nowa etyka AI

Etyka robotów Asimova powstała w czasach, gdy ludzkość zachłysnęła się pierwszymi skonstruowanymi komputerami. Były one gigantycznymi maszynami obliczeniowymi niepozwalającymi myśleć o sztucznej inteligencji.

Obecnie, gdy możliwości technologiczne są znacznie bardziej zaawansowane i pozwalają na skonstruowanie samodzielnie myślących maszyn, prawa robotyki brzmią nieco naiwnie. Zdaniem ekspertów, w dziedzinie AI nie znalazłyby one praktycznego zastosowania, ponieważ związana jest z nimi asymetria w relacjach.

W tym, co zaproponował autor SF, jedynym beneficjentem działania robotów jest człowiek, któremu inteligentne maszyny są całkowicie podporządkowane. A to może prowadzić do konfliktu i próby wyzwolenia się spod kontroli człowieka. Jakby tego było mało, sztuczna inteligencja stała się zbyt dochodowym biznesem, by stojące za jej rozwojem korporacje dopuściły do ograniczeń w postaci etycznego kagańca innego niż prawa rynku i zysku. Założenie niekrzywdzenia ludzi przez inteligentne maszyny jest mrzonką w zderzeniu z komercyjnym wykorzystaniem sztucznej inteligencji, wszak wojsko, dostrzegające ogromny potencjał AI w działaniach bojowych, okazuje się jej największym beneficjentem.

Reklama

Teoretycznie można wpleść w algorytmy AI jakiś fundament moralny, ale mało prawdopodobne jest to, aby korporacje, widzące biznesowy potencjał w rozwoju tej technologii, zdecydowały się same z siebie na podobny krok. Jeśli zostałyby do tego zobligowane prawnie, a nad takimi rozwiązaniami pracuje m.in. Unia Europejska, to zapewne ograniczenia związane z niekrzywdzeniem ludzi przez maszyny zostałyby zawężone do jakiejś grupy urzędników i technokratów.

Nie wiemy też, jak algorytm przyswoi zaprogramowany kodeks etyczny, czy samoświadoma i samoucząca się maszyna nie postanowi uczynić moralnego przewrotu i przewartościować wszelkie wartości.

historia pokazała zdolność człowieka do buntu wobec norm etycznych. A skoro sztuczna inteligencja powstaje na nasz wzór, nie możemy wykluczyć możliwości jej buntu, od tego dzieli nas zaledwie krok do wizji rodem z serii filmów Terminator. Oczywiście, równie prawdopodobna jest pokojowa koegzystencja ludzi i myślących maszyn. Póki co, dywagacje na temat etyki robotów pozostają bardziej w sferze filozofii niż praktyki. Choć ta ostatnia zbliża się wielkimi krokami.

2023-08-14 14:22

Ocena: +8 0

Reklama

Wybrane dla Ciebie

Wojny na algorytmy – nowe wyzwanie dla cyberbezpieczeństwa

Piosenka puszczona w radio może spowodować serię katastrof w ruchu drogowym lub wyciek poufnych danych bankowych. O tym, jak można oszukać asystentów głosowych i wprowadzić w błąd autonomiczne pojazdy, telefony i urządzenia, które same się uczą – pisze w nagrodzonej pracy doktorant Wojskowej Akademii Technicznej.

Od sztucznej inteligencji może zależeć nasze życie, jeśli jest zastosowana w medycynie, albo w autonomicznych pojazdach. A jednak łatwo da się oszukać maszyny – dowodzi Łukasz Tymoszuk. Drogą do “złośliwej” ingerencji jest budowanie systemów-hakerów, które same szukają sobie niewidocznych uchylonych drzwi.

CZYTAJ DALEJ

Watykan: Msza św. w 10. rocznicę kanonizacji Jana Pawła II

2024-04-26 15:32

[ TEMATY ]

Watykan

rocznica

św. Jan Paweł II

Monika Książek/Niedziela

27 kwietnia, przypada 10. rocznica kanonizacji św. Jana Pawła II. Z tej okazji o godzinie 17.00 w bazylice św. Piotra w Watykanie zostanie odprawiona uroczysta Msza święta. Przewodniczyć jej będzie kard. Giovanni Battista Re, dziekan Kolegium Kardynalskiego. Homilię wygłosi wygłosi kard. Angelo Camastri, emerytowany archiprezbiter bazyliki watykańskiej. Wśród koncelebransów będzie kard. Stanisław Dziwisz, długoletni sekretarz kard. Karola Wojtyły-papieża Jana Pawła II.

O zbliżającej się rocznicy kanonizacji przypomniał kilka dni temu papież Franciszek. Podczas środowej audiencji ogólnej 24 kwietnia Ojciec Święty pozdrowił Polaków, mówiąc:

„W przyszłą sobotę przypada 10. rocznica kanonizacji św. Jana Pawła II. Patrząc na jego życie widzimy, do czego może dojść człowiek, kiedy przyjmie i rozwinie w sobie Boże dary: wiary, nadziei i miłości. Pozostańcie wierni jego dziedzictwu. Promujcie życie i nie dajcie się zwieść kulturze śmierci. Za jego wstawiennictwem prośmy Boga o dar pokoju, o który on jako papież tak bardzo zabiegał”.

Podziel się cytatem

CZYTAJ DALEJ

Włochy/Papież w Wenecji: wizyta w więzieniu dla kobiet, spotkanie z młodzieżą i Msza św.

2024-04-28 07:12

[ TEMATY ]

papież Franciszek

PAP/EPA/CLAUDIO PERI

Papież Franciszek spędzi niedzielę w Wenecji. Odwiedzi więzienie dla kobiet, gdzie znajduje się też pawilon Stolicy Apostolskiej na Biennale Sztuki. Papież przybędzie tuż po wejściu w życie systemu rejestracji wizyt w mieście i opłaty 5 euro, jeśli nie zostaje się na nocleg. Za wstęp zapłaci około 9 tysięcy wiernych.

Podróż Franciszka do miasta nad laguną rozpoczyna się wcześnie rano. Po odlocie śmigłowcem z Watykanu o 6.30 przybędzie do Wenecji około godziny 8.

CZYTAJ DALEJ

Reklama

Najczęściej czytane

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję