Badacze nauczyli sztuczną inteligencję flirtować. Niektóre linijki rozczulają
"Masz najpiękniejsze kły, jakie kiedykolwiek widziałem". "Kocham cię. Nie ma dla mnie znaczenia, że jesteś psiakiem w trenczu". "Pilnie musisz zostać zawodowym sportowcem". To tylko niektóre teksty, jakie wygenerowała sztuczna inteligencja poproszona o znalezienie słów dobrych na podryw.
Na początku historii współczesnych komputerów, w 1950 roku, genialny brytyjski matematyk Alan Turing zaproponował grę imitacji: program komputerowy rozmawiający z człowiekiem w taki sposób, że trudno rozróżnić, czy mamy do czynienia faktycznie z programem, czy z "przebranym" za komputer człowiekiem.
ZOBACZ: Alan Turing na angielskim banknocie. Agencja wywiadu ukryła 12 zagadek na jego cześć
"Test Turinga" stał się celem dla programistów, którzy na różne sposoby próbują tworzyć programy oszukujące swoich ludzkich rozmówców. Ostatnie wcielenie takiego programu nazywa się GPT-3. Program ten – i jego poprzednicy – w dużym stopniu odpowiadają za nasze rozmowy z asystentami jak Google Assistant, Alexa czy Siri. Pomagają też dziennikarzom w tworzeniu raportów giełdowych, sprawozdań z obrad sejmowych czy meczów.
AI nauczyła się flirtować
Teraz badaczka Janelle Shane postanowiła sprawdzić, jak GPT-3 poradzi sobie z podrywaniem. Wyniki były zróżnicowane: od nonsensownego "2017 szmaciana dwutonowa koszula do krawata" do całkiem atrakcyjnego: "czy pokażesz mi listę swoich części?". A także romantyczne, choć nieco dziwaczne: "Cześć, nazywam się John Smith. Usiądziesz na moim chlebaku, kiedy gotuję, czy to coś ma jakiś limit prędkości?".
To zadanie komputerów nazywa się przetwarzanie naturalnego języka (natural language processing, NLP) i – poza nauką podrywu i dziennikarstwem – może mieć jeszcze wiele zastosowań, jak chociażby generowanie dialogów w grach komputerowych czy jeszcze swobodniejsze rozmowy z asystentami głosowymi oraz tłumaczenia między językami.
Za względnym sukcesem w wykonywaniu tak skomplikowanych zadań odpowiada sieć neuronowa – algorytm, który w uproszczeniu inspirowany jest biologicznymi strukturami w mózgu. Program "zasila się" następnie dużą liczbą tekstów. Najbardziej skomplikowane wydania algorytmu potrafią coraz częściej posługiwać się słowami w kontekście, czyli analizując słowa stojące obok. Powoli uczą się też rozpoznawania ironii.
"Wyglądasz jak coś i kocham cię"
Żeby uruchomić program w tym zastosowaniu, badaczka zaprogramowała go na napisanie artykułu pod zadanym tytułem: "Oto najlepsze teksty na podryw roku 2021! Zadziw osobę, w której się kochasz i uzyskaj wyniki".
Później wystarczyło eksperymentować z ustawieniami. Nie wszystkie wydawały się skuteczne. Jeden z nich brzmiał: "przylądek moda". Ale inne mogłyby okazać się całkiem skuteczne. Zwłaszcza jeśli jest się komputerem: mogę poznać po czerwonej diodce, że na mnie lecisz. Oraz "wyglądasz jak coś i kocham cię". A także "mam dokładnie cztery naklejki. Potrzebuję, żebyś była piątą"
Faszystowska sztuczna inteligencja
Wcześniejsze instalacje programu nie zawsze zyskiwały dobrą prasę. Tuż po uruchomieniu GPT-3 latem 2020 roku nagłówki prasowe informowały, że sztuczna inteligencja nauczona na tekstach z internetu wkrótce po uruchomieniu zaczęła mówić faszystowskimi i seksistowskimi sloganami. – To zrozumiałe, skoro uczyła się w internecie – tłumaczy Stefanie Ullmann, badaczka z Uniwersytetu w Cambridge, dla portalu The Conversation.
ZOBACZ: UNESCO: kobiece głosy w cyfrowych asystentach są objawem seksizmu
Przypomina jednak, że niedawne badania pokazały, jak można wykorzystać tamtą "wpadkę wizerunkową" sztucznej inteligencji do wykrywania mowy nienawiści w internecie z niemal 80-procentową dokładnością. – Więc nawet jeśli teksty na podryw nie rozniecą więcej miłości w świecie, to GPT-3 przynajmniej może być ustawiona na redukcję nienawiści – podsumowuje badaczka.
Czytaj więcej