130
Views

Do napisania tego tekstu zainspirował mnie artykuł, który czytałem kilka dni temu. Wynikało z niego, że Unia Europejska powoli rozpoczyna prace nad stworzeniem zasad dotyczących tworzenia i etyki funkcjonowania robotów na całym świecie. Poza mało konkretnymi planami (wszak prace dopiero ruszają i nie są wymagane na jutro), moją uwagę przyciągnęło jedno zdanie. Otóż komisja zaproponowała, by zasady tworzone były w oparciu o wspomniane we wstępie prawa robotyki.

Dziedzictwo Asimova

Isaac Asimov powiedział kiedyś, że – według niego – najważniejszą spuścizną, jaką pozostawi po sobie, będzie cykl Fundacja, oraz wymienione w opowiadaniu z 1942 roku trzy prawa robotyki. Prawa proste, a zarazem uniwersalne dla każdej inteligentnej maszyny. Implementacja tych praw miała być obowiązkowa absolutnie w każdym przypadku, będąc nadrzędną częścią oprogramowania robota.  Pierwsze prawo mówi, że robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Drugie głosi, że robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie zaś oznajmia, że robot musi chronić samego siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem. Później pojawiło się jeszcze zerowe prawo mówiące, że robot nie może skrzywdzić ludzkości, lub przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości. Brzmi prosto, prawda?

Realna implementacja takich zasad nie jest już wcale taka prosta. Robot, który miałby rozpoznać możliwość wystąpienia ewentualnej krzywdy u człowieka, musiałby posiadać niezwykłe rozbudowaną sieć neuronową. Musiałby być nie tylko dobrze zaprogramowany na starcie, ale również odpowiednio nauczony poprzez doświadczenia. Sztuczna inteligencja bowiem nie jest programem w dosłownym tego słowa znaczeniu. Program charakteryzuje się wykonywaniem tego i tylko tego, co zostało w nim zawarte. Sztuczna inteligencja musi posiadać umiejętność uczenia się, która to umiejętność pociąga za sobą możliwość modyfikacji swojego oprogramowania sterującego dalszymi poczynaniami. To właśnie tutaj sprawy zaczynają się komplikować.

prawa robotyki

Elastyczny kod

Implementacja moralnych zasad wymaga bowiem zastosowania blokady uniemożliwiającej robotowi zmianę tych zasad. Ba, jako sztuczna inteligencja robot powinien nie tylko wiedzieć, że istnieją takie zasady, ale całe swoje działanie podporządkowywać właśnie im. Można to porównać do różnicy między wiedzą a zrozumieniem tej wiedzy w przypadku człowieka. Przykładowo sztuczna inteligencja mogłaby dojść do słusznego wniosku, iż człowiek często szkodzi sam sobie. Gdyby nie istniały prawa robotyki, mogłaby ona podjąć działania mające zapobiegać dalszemu szkodzeniu. Pierwsze na liście znalazłoby się wyeliminowanie głównej przyczyny szkodzenia człowiekowi, czyli… samego człowieka. Nie zapominajmy, że choć myśląca, sztuczna inteligencja nadal będzie komputerem, dla którego abstrakcja będzie czymś… abstrakcyjnym.

Oczywiście przy obecnej technologii nie jesteśmy w stanie stworzyć prawdziwej sztucznej inteligencji. Niemniej, w celu uniknięcia problemów, prace nad sformułowaniem współczesnych praw robotyki trzeba zacząć już teraz. Biurokracja z pewnością bardzo wydłuży ten proces. Naciski firm tworzących sztuczne inteligencje również mogą zaburzyć tempo prac. Całkiem prawdopodobne, że gdy naukowcy ogłoszą światu istnienie pierwszej, prawdziwej sztucznej inteligencji, zasady jej dotyczące nadal nie będą gotowe. Oczywiście nie ma sensu zakładać wyłącznie najgorszego scenariusza, natomiast nieustanne ostrzeżenia pochodzące od osób takich, jak Stephen Hawking, Bill Gates, czy Elon Musk, powinny nam dać trochę do myślenia. Przy współczesnym podejściu koncernów nastawionych tylko i wyłącznie na zysk, szybko mogłoby się okazać, że zaniedbano względy bezpieczeństwa, a to mogłoby się dla nas skończyć naprawdę tragicznie.

Przyszłość

Nie bądźmy jednak pesymistami! Powstanie sztucznej inteligencji jest nieuniknionym etapem rozwoju naukowego ludzkości, tak, jak kolonizacja Marsa czy porzucenie nieodnawialnych źródeł energii. Na wszystko przyjdzie czas. Prawdziwa sztuczna inteligencja, oprócz zastosowań typowo użytkowych, jak na przykład asystent w mieszkaniu, znacząco pomogłaby naukowcom. W tej chwili korzystają oni z superkomputerów do przeprowadzania obliczeń, natomiast bolączką jest konieczność uprzedniego zaprogramowania tych komputerów. Gdyby SI istniała, zajęłaby się tym błyskawicznie. W ten sposób analiza danych trwałaby znacznie szybciej, w efekcie przyspieszając cały rozwój ludzkości. Wszystko to oczywiście pod warunkiem zaimplementowania moralnych zasad. Prawa robotyki zapobiegłyby manipulacji danymi, przeszkadzaniu w rozwoju, czy też utrudnianiu go ze względu na własne cele sztucznej inteligencji. Pozostaje mieć nadzieję, że biurokracja nie sprawi, że prawa robotyki zostaną wypaczone. Zapowiedź oparcia ich o zasady Asimova daje jednak podstawy, by sądzić, że zostanie to załatwione tak, jak należy.

źródło: geekweek
Kategoria artykułu
Nauka

Możliwość opublikowania komentarza wyłączona.