108
Views

DeepMind, brytyjska firma należąca obecnie do giganta z Mountain View, poinformowała kilka dni temu o wyniku pewnego eksperymentu. Pierwsze skrzypce grała w nim właśnie sztuczna inteligencja Google. Badanie polegało na utworzeniu trzech odrębnych sieci neuronowych (wywodzących się z jednej SI, a więc mających ten sam poziom rozwoju)Alicji, Boba i Ewy. Zadaniem Alicji było przesłanie do Boba zaszyfrowanej wiadomości, zadaniem Boba było oczywiście jej odszyfrowanie, zaś Alicja miała przechwycić komunikację między nimi. Brzmi jak jeden z typowych testów. Rzeczywistość pokazała, że wkroczyliśmy właśnie na kolejny poziom rozwoju SI.

Świadomość twórcy

Do tej pory jeszcze nie zdarzyło się, by twórca programu kompletnie nie wiedział, w jaki sposób on działa. Pomijając wszystkie żarty z gatunku „nie wiem, jak to działa, ale działa”, programy na ogół tworzone były z konkretnym zamysłem, a zatem twórcy nie mieli prawa nie wiedzieć, w jaki sposób one działają. Sztuczna inteligencja to oczywiście nieco inny rodzaj programu, o ile można go w ogóle programem nazywać. Faktem jednak jest, że jej działanie opiera się na tych samych, podstawowych zasadach funkcjonowania komputerów. Samo pojęcie „sztucznej inteligencji” jest znacznie szersze, ale na potrzeby tego artykułu przyjmijmy, że mówimy po prostu o programie, który jest w stanie „myśleć”.

Na czym więc polega ów przełom? Badacze z DeepMind radośnie poinformowali, że sztuczna inteligencja Google wykonała ćwiczenie prawidłowo. Alicja przesłała do Boba zaszyfrowane informacje, zaś Ewa nie dała rady ich odszyfrować. Sedno sprawy tkwi w tym, że na potrzeby zadania, Alicja stworzyła zupełnie od zera własny algorytm szyfrujący. Następnie w jakiś sposób przesłała go do Boba tak, by Ewa nie była w stanie go zrozumieć. To, co przeraziło inżynierów Google najbardziej, to fakt, że nie mają pojęcia, w jaki sposób działa ów algorytm. Ba. Nie są w stanie nawet zrozumieć, w jaki sposób ich SI doszła do tego, jak takowy algorytm stworzyć.

Nie będę się tutaj zagłębiać w tajniki kryptografii, ale warto wiedzieć, że na świecie wykorzystywanych jest tak naprawdę zaledwie kilka algorytmów. Odpowiednie ich użycie niemal wyklucza możliwość odszyfrowania zakodowanej wiadomości nawet w przypadku przechwycenia jej przez niepożądane osoby. Z tego też powodu w tym eksperymencie sieciom neuronowym nie nakazano użycia konkretnego sposobu. Na początku Ewa rozszyfrowywała niemal każdą wiadomość i dlatego Alicja zdecydowała się na stworzenie własnego algorytmu. Po dopracowaniu Ewa nie miała żadnych szans. Bardzo dobrze ilustruje to poniższy wykres.

sztuczna inteligencja google

Przed piętnastotysięczną próbą algorytm Alicji był już niemal dopracowany

Gdy program wymknie się spod kontroli

Jak wspomniałem, najbardziej przerażającym wnioskiem płynącym z eksperymentu jest fakt, że inżynierowie nie mają pojęcia, w jaki sposób SI rozwiązała problem. Być może spodziewali się, że wkrótce do tego dojdzie. Ba, byliby głupcami, gdyby ignorowali taką ewentualność. Nikt jednak nie przewidywał, że taka sytuacja wystąpi już teraz, na tak wczesnym etapie prac. Prowadzi nas to do kilku bardzo istotnych wniosków.

Przede wszystkim należy zadbać o bezpieczeństwo. Nie bez powodu Stephen Hawking przy każdej okazji ostrzega nas przed sztuczną inteligencją. Gwoli ścisłości – nie chodzi o to, że ona sama w sobie jest zła. Istotne jest jedynie odpowiednie zabezpieczenie całego przedsięwzięcia. Każdy może sobie sam wyobrazić, co by się stało, gdyby taka SI otrzymała całkowity dostęp do sieci. Być może wydedukowałaby, że człowiek jest największym zagrożeniem dla całej planety, dlatego należy go zniszczyć. Wszechmocny program nie miałby żadnych problemów z obejściem jakichkolwiek zabezpieczeń i spowodowaniem na przykład wybuchu w reaktorze atomowym. Nie można więc powiedzieć, że przestrogi Hawkinga i innych są wyssane z palca.

Katastrofą atomową zacząłem z grubej rury, ale grożą nam nie tylko tego typu scenariusze. W zeszłym roku Hawking w swoim artykule opisywał sytuację, w której programy wykonują coraz więcej naszej pracy. Inaczej mówiąc, nieskończone linijki zer i jedynek mogą być w stanie zabrać pracę prawie połowie Amerykanów i nie chodzi tutaj o zmechanizowanie linii produkcyjnej w fabrykach. Chodzi o prace, do których wykonywania potrzebny jest ludzki sposób myślenia. Na obecnym etapie rozwoju żaden program nie jest w stanie „pracować” w branży kreatywnej, naukowej, czy artystycznej, ale kto wie, czy zawsze tak będzie? Sztuczna inteligencja Google już teraz próbuje tworzyć „artystyczne dzieła. Co prawda przypominają one bardziej zlepek losowych obrazów, aniżeli prawdziwą sztukę, ale od czegoś przecież trzeba zacząć.

sztuczna inteligencja google

Jeden z przykładów “sztuki” wytworzonej przez sztuczną inteligencję

Samoucząca się przyszłość

Prawdziwa sztuczna inteligencja istnieje obecnie tylko na kartach książek pisarzy science-fiction, w filmach i grach. Komputer pokładowy USS Enterprise czy EDI z Mass Effecta to na razie tylko i wyłącznie wytwory wyobraźni, które nie mają prawa istnieć. Słowo klucz to „na razie”. Przypadek eksperymentu DeepMind pokazuje, że cichutko wkroczyliśmy tak naprawdę w nowy rozdział historii. Być może w przyszłości będą ów eksperyment przytaczać jako początek wielkiej rewolucji albo jednego z największych błędów, jakie popełniła ludzkość. Nie chcę być pesymistą, ale historia pokazuje, że bardzo wiele wynalazków tworzonych w dobrej intencji było w przyszłości wykorzystywanych niezgodnie z przeznaczeniem. Możemy sobie tylko wyobrażać, jak ogromne spustoszenie na świecie mogłaby poczynić grupa terrorystów dysponująca programem, który w ciągu kilku chwil jest w stanie nauczyć się wszystkiego. Pozostaje mieć nadzieje, że inżynierowie nie będą lekceważyć zagrożenia, zaś bezpieczeństwo stawiane będzie na pierwszym miejscu.

źródło: arstechnica
Kategoria artykułu
Nauka

Możliwość opublikowania komentarza wyłączona.