Przejdź do treści

NNO. Po stronie odpowiedzialności.

Komentujemy świat. Chcemy go zmieniać na lepszy.

Poznaj nas
Należałoby zastąpić polityków sztuczną inteligencją – rozmowa z Aleksandrą Przegalińską Należałoby zastąpić polityków sztuczną inteligencją – rozmowa z Aleksandrą Przegalińską
Magazyn

Należałoby zastąpić polityków sztuczną inteligencją – rozmowa z Aleksandrą Przegalińską


20 grudnia, 2023

O tym, że mylimy brak zrozumienia AI z brakiem kontroli, z Aleksandrą Przegalińską rozmawia Grzegorz Nawrocki.

Wyczytałem, że znalazła się pani w gronie nominowanych do tytułu Wszechmocnej!* Gratulacje!

Tytuł jest onieśmielający, ale nominacja mnie ucieszyła. Nagrody są dla kobiet i myślę, że ten tytuł Wszechmocnej jest dlatego, że kobietom cały czas jest dosyć ciężko, więc ta wszechmoc dotyczy umiejętności zwalczania przeciwności i osiągania swoich celów. Ja się czuję w mocy życiowo, bo robię rzeczy, które lubię. A jeszcze przy okazji spotkał nas boom na sztuczną inteligencję, więc jest
bardzo ciekawie.

No ale gdyby pani naprawdę była wszechmocna i wraz z tym tytułem spłynęłaby na panią supermoc, to co by pani zmieniła, wymyśliła, żeby Polakom, ludziom żyło się lepiej?

Należałoby zastąpić polityków sztuczną inteligencją. Na pewno byłoby dużo sympatyczniej i jest szansa, że byłoby też, paradoksalnie, mniej polaryzująco. Bo chociaż sztuczna inteligencja może służyć polaryzacji, to wcale nie musi. A tak poważnie, to od wielu lat bardzo kibicuję rozwojowi sztucznej inteligencji
i chciałabym, aby było jej jeszcze więcej w medycynie. Od szukania terapii i leków poprzez wsparcie pacjentów, badania kliniczne. Będąc na Harvardzie, widzę ten szybki rozwój – rozmaite badania genetyczne, szukanie nowych leków, terapii, związków chemicznych, które mogą okazać się ostatecznie
dobrym panaceum na jakąś chorobę. Oczywiście wszystko trzeba robić mądrze i z głową.

Na razie to jest chyba jeszcze taka sztuczna „inteligencyjka”.

To nie jest taka sobie sztuczna „inteligencyjka”. To już są bardzo potężne modele. Skala ich zastosowań jest ogromna, cena, przygotowywanie ludzi do tego, żeby z niej korzystali i przekwalifikowanie rozmaitych profesji – to dopiero przed nami. Więc na razie zakres stosowania jest za mały, a potrzeb jest bardzo dużo. Zdaję sobie sprawę, że sztuczna inteligencja w wielu dziedzinach niekoniecznie musi się ludziom dobrze kojarzyć, chociaż myślę, że niepotrzebnie ma taką złą sławę.

Ostatecznie codziennie dostarcza nam prognozę pogody, weryfikuje nas w banku, sugeruje produkty, które chcemy kupić, a co najważniejsze – pomaga w terapiach np. wyjątkowo złośliwych odmian raka piersi, gdzie modele AI wykorzystywane są do badań i przygotowywania bardziej celowanych terapii. Ja temu ogromnie kibicuję i myślę, że dobrem, które może nam dać sztuczna inteligencja, jest właśnie dostęp do wiedzy do tej pory ukrytej, zablokowanej, pozwalającej nam budować lepsze usługi zdrowotne. Ludzie wyobrażają sobie, że sztuczna inteligencja za chwilę zrobi wszystko, co tylko wymyśli sobie nasza wyobraźnia.

Z jednej strony będzie leczyć choroby, realizować nasze marzenia o nieśmiertelności, o transplantacji, a z drugiej strony, że może być na tyle pazerna, krwiożercza, że w którymś momencie uzna, że nie potrzebuje w ogóle gatunku Homo sapiens i „załatwi” nas jednym kliknięciem. Na pewno dużo się zmieniło od momentu inauguracji w listopadzie 2022 roku czata GPT. Ja w tej dziedzinie pracuję dziesięć lat i to, co się teraz dzieje, widzę inaczej niż większość z nas.

Przez ostatnie parę lat obserwowałam wzrost zainteresowania sztuczną inteligencją, uczestniczyłam w szeregu projektów, ale to wszystko było nieporównywalne z tym, co się dzieje teraz. Widzi pani różnice Różnica jest jedna, podstawowa. Ogromne modele językowe i obrazowe, z którymi można sobie rozmawiać. Nie trzeba ich programować. Każdy z nas może wejść na stronę i zacząć rozmowę z czatem, otrzymać od niego odpowiedzi na pytanie. I nie musi się w ogóle starać, nie musi programować, kodować, nie musi znać określonych komend. Może sobie z tym modelem rozmawiać jak ze znajomym. I to jest fundamentalna różnica. Ten brak kodowania, pełny dostęp, jednocześnie połączony z tym, że to są naprawdę już modele, które sporo potrafią. Chcesz poezję w stylu Szymborskiej? Proszę bardzo. Chcesz rapy jak Drake? Proszę bardzo.

Rys. Jarosław Danilenko

To bardziej straszy, niż uwodzi…

Może i trochę straszy, ale ja znam jednak masę ludzi, którzy z tego na co dzień korzystają. Draftują sobie maile, żeby nie musieć pisać. Mam sporo znajomych w sektorze kreatywnym, którzy używają czata, gdy mają tzw. blokadę twórczą. Podobnie programiści – korzystają na potęgę. Ich praca już teraz zmieniła się fundamentalnie. Nie „klepią” kodu przez cały dzień, robią inne rzeczy, tj. składają systemy w całość, rozmawiają z klientami. To jest dobry przykład. Jest co najmniej kilka innych: dziennikarze, graficy,
marketingowcy, naukowcy.

Ostatnio napisała pani na swoich mediach społecznościowych, że jesteśmy świadkami ery straszenia sztuczną inteligencją. Spróbujmy krytycznie do tego podejść i odpowiedzieć na pytanie: czy sztuczna inteligencja przyniesie nam dobro, czyli dobre życie, dobre współdziałanie?

Wydaje mi się, że sztuczna inteligencja nie może być odpowiedzialna za dobro, bo to jest jednak narzędzie. Wiem, że dużo osób obecnie personifikuje sztuczną inteligencję, robi z niej osobę albo instancję. Ale to jest narzędzie i ono nie ma własnej woli. Można realizować wolę człowieka, żeby przynosić dobro lub zło. Samodzielnie sztuczna inteligencja niczego nam nie przyniesie jeszcze przez bardzo długi czas, choć są eksperci, którzy twierdzą, że to kwestia siedmiu, może dziesięciu lat. Moim zdaniem upłynie więcej czasu, nim sztuczna inteligencja będzie mogła realizować coś sama, świadomie i rzeczywiście konstruować coś dla dobra albo zła. Natomiast dziś jest tak, że to jest narzędzie, technologia. I strukturalnie rozumiemy sporo jej elementów, tego, jak ona funkcjonuje. Ale to ludzie przecież programują AI, decydują o parametrach, tylko sam proces uczenia się przez sztuczną inteligencję jest dla wielu osób niewidoczny, niezrozumiały. I wydaje mi się, że właśnie ten brak zrozumienia mylą z brakiem kontroli. A brak kontroli kojarzy się z tym, że technologia może służyć złu i nie da się z tym nic zrobić. To, że my pewnych rzeczy nie widzimy, nie oznacza, że sztuczna inteligencja jest autonomiczna i my nic nie możemy zrobić.

Czyli wszystko zależy od tego, kto programuje, kto tworzy i jakie ma intencje.

Takie narzędzia jak np. ChatGPT to są każdorazowo ogromne przedsięwzięcia, z udziałem rozbudowanego zespołu, działające w jeszcze większym ekosystemie nadzoru. I bardzo trudno byłoby jednej osobie mającej szalone intencje przechylić tę technologię w jakąś stronę. To pierwszy argument. Jest też drugi.
Skoro mówimy o dobru, to można też rozmawiać o dobru utylitarnie. To znaczy jakiej firmie ostatecznie opłacałoby się tworzyć technologię działającą negatywnie z punktu widzenia ekonomicznego, wizerunkowego czy społecznego? No chyba żadnej. Ja raczej widzę to w ten sposób, że często jest tak, iż wbrew dobrym intencjom technologia bywa wykorzystana w bardzo kiepski sposób. Tak się zdarza. Hakerzy cały czas walczą z organizacjami w zakresie cyberbezpieczeństwa, a jednak bardzo rzadko słyszymy o fundamentalnych crashach. Suma ludzkich intencji, która towarzyszy tworzeniu sztucznej inteligencji, jest najczęściej dobra lub neutralna, a bardzo rzadko jednoznacznie zła.

Chcesz przeczytać cały artykuł?

Wspieraj NNO. Otrzymasz dostęp do tego i wszystkich artykułów z magazynu w wersji cyfrowej oraz wydanie papierowe.

Udostępnij:

Dołącz do naszej społeczności

Zarejestruj się bezpłatnie, otrzymasz dostęp do wykładów, najnowszych artykułów, wywiadów i podcastów.

Dowiedz się więcej