Reklama

Nauka

Zakochany robot?

Rozwoju sztucznej inteligencji (z ang. AI) już nie da się zatrzymać. Może warto więc zapytać czy poza inteligencją AI może rozwinąć w sobie też moralność?

Bądź na bieżąco!

Zapisz się do newslettera

Stephen Hawking, jeden z najwybitniejszych umysłów XX wieku, twierdził, że wystarczy 100 lat, by komputery prześcignęły ludzi. Jego przewidywania spełniają się na naszych oczach. Sztuczna inteligencja wyręcza człowieka niemal w każdej dziedzinie życia. Już stanowi ona ważne wsparcie dla świata biznesu, rozrywki, przemysłu czy wojska, a wciąż pojawiają się informacje o pomysłach na jej nowe zastosowanie.

Czy jednak zgodzilibyśmy się dać robotowi wyposażonemu w sztuczną inteligencję skalpel do ręki podczas operacji na naszym sercu albo broń w czasie wojny? Większość osób odpowie „nie” lub co najmniej zawaha się przed udzieleniem ostatecznej odpowiedzi. A to pokazuje, że do głównych wyzwań stojących przed ludzkością w XXI wieku dołączyło pytanie: jak sprawić, aby AI brała pod uwagę dobro ludzkości, a nie zero-jedynkową, pragmatyczną kalkulację?

Pomóż w rozwoju naszego portalu

Wspieram

Armagedon ludzkiego intelektu

„Sztuczna inteligencja nigdy nie wygra z człowiekiem” – mówił szachowy arcymistrz Garri Kasparow po pierwszej serii potyczek z komputerem. Rok później jednak świat zamarł. Było to 11 maja 1997 r., gdy gruchnęła wieść – Garri Kasparow przegrał 3,5: 2,5 z komputerem Deep Blue, który potrafił analizować 200 mln pozycji na sekundę.

Reklama

Mijały lata, a po sukcesie maszyny koncernu IBM zostały tylko wzmianki w kronikach, aż nastał 2016 r., który możemy porównać do armagedonu ludzkiego intelektu w zderzeniu ze sztuczną inteligencją. Program AlphaGo pokonał Lee Sedola, 8-krotnego mistrza świata w grze go.

Docenimy ten wyczyn, gdy uświadomimy sobie, że plansza do gry go ma wymiar 19 na 19 pól, podczas gdy szachownica to zaledwie 8 na 8 pól. Amerykański szachista Edward Lasker tak porównał obie gry: jeżeli szachy są królową gier, to go z pewnością jest ich cesarzem.

Dla twórców sztucznej inteligencji go stanowiło wyzwanie nie do przezwyciężenia. Sukces AlphaGo stanowi kres dominacji człowieka w grach planszowych, a zarazem początek nowej ery sztucznej inteligencji, która mocą obliczeniową, szybkością przyswajania nowych strategii, a więc uczenia się, oraz sprytem – tak, bo o sprycie w tym przypadku też możemy mówić – przewyższyła człowieka.

Rasistowska sztuczna inteligencja

W AI drzemie niewyobrażalny potencjał. Czego może dokonać, jeśli wymknie się spod ludzkiej kontroli, dowodzi eksperyment z chatbotem o imieniu Tay.

W tym czasie, gdy AlphaGo rozkładał na łopatki mistrza go, Microsoft przygotowywał się do uruchomienia Tay – chatbota wyposażonego w najdoskonalszą wówczas sztuczną inteligencję. Tay, stylizowana na przeciętną amerykańską 19-latkę, miała rozmawiać na Twitterze z przedstawicielami pokolenia milenialsów i przy tej okazji uczyć się od nich.

Reklama

Osiągnięcia Tay w zakresie przyswajania wiedzy i wykorzystywania jej w dalszych rozmowach przerosły oczekiwania twórców chatbota. W trakcie konwersacji zauważono jednak jedno drobne „ale”... Nikt się nie spodziewał, że najdoskonalsza sztuczna inteligencja w zaledwie 24 godz. postanowi zostać rasistką, seksistką i mizoginistką. Po tym, jak Tay umieszczała obraźliwe wpisy i chwaliła wyczyny Hitlera, Microsoft wyłączył bota.

Eksperyment Microsoftu ujawnia obawę zapowiedzianą przez Stephena Hawkinga, który twierdził, że największym wyzwaniem związanym ze sztuczną inteligencją jest utrzymanie nad nią kontroli. Tay pokazała, że w warunkach laboratoryjnych spisuje się znakomicie, lecz uwolniona zachowuje się nieprzewidywalnie, a jej algorytmy nie są odporne na szkodliwe idee.

Bunt maszyn

Tay pozbawiona etycznego fundamentu balansowała na granicy nienawiści do ludzkości. Doświadczenie z nią pokazuje, jak niebezpieczne mogą być maszyny wyzute z tego, co stanowi o człowieczeństwie – moralności.

Jako pierwsi moralny aspekt istnienia myślących maszyn rozważali twórcy fantastyki. Wydaje się, że najlepsze rozwiązania wypracował Isaac Asimov, gdy w powieści Zabawa w berka z 1942 r. zaproponował trzy prawa robotyki. Jego nowatorskie podejście do kwestii etyki maszyn z czasem stało się podstawą dalszej debaty na ten temat. Czysto teoretyczne rozważania Asimova obecnie nabierają realnego i praktycznego wymiaru.

Reklama

Pierwsze prawo robotyki brzmi: robot nie może skrzywdzić człowieka ani przez zaniechanie działania pozwolić na to, aby człowiek doznał obrażeń. Drugie prawo: robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo: robot musi chronić samego siebie, o ile nie stoi to w sprzeczności z pierwszym lub drugim prawem. Wkrótce Asimov dodał prawo zerowe, będące podstawą dla trzech praw robotyki – brzmi ono: robot nie może wyrządzić szkody ludzkości lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Nowa etyka AI

Etyka robotów Asimova powstała w czasach, gdy ludzkość zachłysnęła się pierwszymi skonstruowanymi komputerami. Były one gigantycznymi maszynami obliczeniowymi niepozwalającymi myśleć o sztucznej inteligencji.

Obecnie, gdy możliwości technologiczne są znacznie bardziej zaawansowane i pozwalają na skonstruowanie samodzielnie myślących maszyn, prawa robotyki brzmią nieco naiwnie. Zdaniem ekspertów, w dziedzinie AI nie znalazłyby one praktycznego zastosowania, ponieważ związana jest z nimi asymetria w relacjach.

W tym, co zaproponował autor SF, jedynym beneficjentem działania robotów jest człowiek, któremu inteligentne maszyny są całkowicie podporządkowane. A to może prowadzić do konfliktu i próby wyzwolenia się spod kontroli człowieka. Jakby tego było mało, sztuczna inteligencja stała się zbyt dochodowym biznesem, by stojące za jej rozwojem korporacje dopuściły do ograniczeń w postaci etycznego kagańca innego niż prawa rynku i zysku. Założenie niekrzywdzenia ludzi przez inteligentne maszyny jest mrzonką w zderzeniu z komercyjnym wykorzystaniem sztucznej inteligencji, wszak wojsko, dostrzegające ogromny potencjał AI w działaniach bojowych, okazuje się jej największym beneficjentem.

Reklama

Teoretycznie można wpleść w algorytmy AI jakiś fundament moralny, ale mało prawdopodobne jest to, aby korporacje, widzące biznesowy potencjał w rozwoju tej technologii, zdecydowały się same z siebie na podobny krok. Jeśli zostałyby do tego zobligowane prawnie, a nad takimi rozwiązaniami pracuje m.in. Unia Europejska, to zapewne ograniczenia związane z niekrzywdzeniem ludzi przez maszyny zostałyby zawężone do jakiejś grupy urzędników i technokratów.

Nie wiemy też, jak algorytm przyswoi zaprogramowany kodeks etyczny, czy samoświadoma i samoucząca się maszyna nie postanowi uczynić moralnego przewrotu i przewartościować wszelkie wartości.

Historia pokazała zdolność człowieka do buntu wobec norm etycznych. A skoro sztuczna inteligencja powstaje na nasz wzór, nie możemy wykluczyć możliwości jej buntu, od tego dzieli nas zaledwie krok do wizji rodem z serii filmów Terminator. Oczywiście, równie prawdopodobna jest pokojowa koegzystencja ludzi i myślących maszyn. Póki co, dywagacje na temat etyki robotów pozostają bardziej w sferze filozofii niż praktyki. Choć ta ostatnia zbliża się wielkimi krokami.

2023-08-14 14:22

Oceń: +8 0

Reklama

Wybrane dla Ciebie

Papież: AI już wpływa na młodych, potrzeba pilnych działań

Sztuczna inteligencja już teraz ma realny wpływ na życie milionów ludzi. Musimy nauczyć młodych, jak z niej korzystać przy użyciu własnej inteligencji i zachować zaufanie, że człowiek potrafi pokierować rozwojem techniki – powiedział Leon XIV na audiencji dla naukowców, którzy zajmują się sztuczną inteligencją i jej wpływem na współczesny świat. Podkreślił, że ten nowy potencjał stawia nas wobec fundamentalnego pytania o to, co oznacza bycie człowiekiem dzisiaj.

Leon XIV przyjął w Watykanie uczestników konferencji na temat sztucznej inteligencji, zorganizowanej przez Fundację Centesimus Annus Pro Pontifice i Strategiczne Przymierze Katolickich Uniwersytetów Badawczych. W przemówieniu zauważył, że sztuczna inteligencja już teraz powoduje głębokie zmiany w społeczeństwie, które wpływają na istotne wymiary osoby ludzkiej, takie jak krytyczne myślenie, rozeznanie, uczenie się i relacje międzyludzkie.
CZYTAJ DALEJ

ZUS ujawnił dane osobowe pracowników! Poważny wyciek po błędzie urzędu

2026-03-28 18:07

[ TEMATY ]

ZUS

wyciek danych

pixabay.com

Breaking news

Breaking news

Poważne naruszenie ochrony danych w Zakładzie Ubezpieczeń Społecznych. Przez pomyłkę urzędników korespondencja zawierająca wrażliwe dane trafiła do niewłaściwych odbiorców. Wyciek dotyczy co najmniej kilku osób zatrudnionych u jednego pracodawcy – ujawniono m.in. imiona, nazwiska i numery PESEL.

To miał być rutynowy list z informacją o korekcie danych. Zamiast tego stał się początkiem niepokojącej historii o naruszeniu prywatności obywateli. Jak wynika z oficjalnego pisma, Zakład Ubezpieczeń Społecznych przyznał, że doszło do incydentu polegającego na błędnym wysłaniu korespondencji do niewłaściwego płatnika składek.
CZYTAJ DALEJ

Koncert pasyjny w Oławie

2026-03-29 18:24

ks. Łukasz Romańczuk

W kościele śś. Apostołów Piotra i Pawła w Oławie odbył się koncert pasyjny. Było to muzyczne wprowadzenie w Wielki Tydzień.

Wystąpili: Olga Ksenicz, sopranistka, Paweł Ożga, dyrygent oraz Zespół wokalny “Gaudentes Voces” oraz Oławska Orkiestra Kameralna.
CZYTAJ DALEJ

Reklama

Najczęściej czytane

REKLAMA

W związku z tym, iż od dnia 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia Dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) uprzejmie Państwa informujemy, iż nasza organizacja, mając szczególnie na względzie bezpieczeństwo danych osobowych, które przetwarza, wdrożyła System Zarządzania Bezpieczeństwem Informacji w rozumieniu odpowiednich polityk ochrony danych (zgodnie z art. 24 ust. 2 przedmiotowego rozporządzenia ogólnego). W celu dochowania należytej staranności w kontekście ochrony danych osobowych, Zarząd Instytutu NIEDZIELA wyznaczył w organizacji Inspektora Ochrony Danych.
Więcej o polityce prywatności czytaj TUTAJ.

Akceptuję