Od gotowania przepisów po pisanie przemówień – nowy chatbot ChatGPT odpowiada na różne prośby użytkowników. Dla wielu stała się ona pierwszą okazją do zabawy z systemem sztucznej inteligencji (AI).
Dzięki sztucznej inteligencji, ChatGPT przenosi przetwarzanie ludzkiej mowy na nowy poziom i może prowadzić dialog.
Generuje on maszynowo tekst podobny do tego, co napisałby człowiek.
ChatGPT może pisać artykuły, wymyślać historie, komponować poezję, a nawet tworzyć kod komputerowy. Może również odpowiadać na pytania, prowadzić rozmowę, a w niektórych przypadkach udzielać szczegółowych odpowiedzi na konkretne pytania.
Powiedz ChatGPT, co masz w swojej kuchennej szafce, a on poda Ci przepis. Potrzebujesz szybkiego wprowadzenia do dużej prezentacji? Nie ma problemu.
Ale czy naprawdę jest tak dobry? Jego przybliżenie ludzkich reakcji może być potężnym narzędziem dla atakujących.
Naukowcy, specjaliści od cyberbezpieczeństwa i eksperci od sztucznej inteligencji ostrzegają, że ChatGPT może stać się narzędziem do podżegania do niezgody i szerzenia propagandy w mediach społecznościowych.
Dotychczas rozprzestrzenianie dezinformacji wymagało znacznego zaangażowania człowieka. Ale sztuczna inteligencja, taka jak ChatGPT, znacznie ułatwi pracę tzw. armii trolli. Tak wynika ze wspólnego raportu Uniwersytetu Georgetown, Stanford Internet Observatory oraz OpenAI.
ChatGPT może tworzyć operacje informacyjne (lub operacje wpływu) na mediach społecznościowych.
Takie kampanie mają na celu usunięcie krytyki i przedstawienie partii politycznej lub polityki rządu w pozytywnym świetle. Mogą również opowiadać się za lub przeciw konkretnej polityce. Wykorzystują fałszywe konta do szerzenia dezinformacji w mediach społecznościowych.
Jedna z takich kampanii została uruchomiona przed wyborami prezydenckimi w USA w 2016 roku, a „fabryka trolli” z Sankt Petersburga w Rosji próbowała wpłynąć na ich wynik.
Zgodnie z wnioskami Congressional Select Committee, skradzione dane osobowe amerykańskich obywateli zostały wykorzystane do wspierania republikańskiego kandydata Donalda Trumpa i szkalowania wizerunku kandydatki Demokratów Hillary Clinton w mediach społecznościowych i poza nimi do tworzenia fałszywych profili na Instagramie, Twitterze i Facebooku.
Ale to tylko wierzchołek góry lodowej. Eksperci są przekonani, że w nadchodzące wybory może uderzyć jeszcze większa fala dezinformacji.
„Potencjał modeli językowych, jak każda potężna technologia, zaoferuje wyraźne korzyści propagandystom, którzy zdecydują się je wykorzystać” – stwierdziła AI w styczniowym raporcie.
„Te korzyści mogą rozszerzyć dostęp do większej liczby aktorów, umożliwić nowe taktyki wpływu, lepiej dostosować fałszywe wiadomości i sprawić, że będą one potencjalnie bardziej skuteczne” – ostrzega raport.
Może wzrosnąć nie tylko ilość dezinformacji, ale także jej jakość. Systemy sztucznej inteligencji mogą sprawić, że treści będą bardziej perswazyjne, przez co trudniejsze do rozpoznania przez zwykłych internautów – mówi Josh Goldstein z Centre for Security and Advanced Technology na Georgetown University.
„Generatywne modele językowe mogą stworzyć dużą ilość treści, które za każdym razem będą oryginalne (…) i pozwolą każdemu propagandziście uniknąć kopiowania i wklejania tego samego tekstu do wiadomości na stronach mediów społecznościowych czy serwisów informacyjnych” – wyjaśnia.
A jeśli takich treści będzie dużo, użytkownikom coraz trudniej będzie odróżnić prawdę od kłamstw – twierdzi Goldstein.
Jego sprawozdanie zauważa również, że dostęp do tych systemów może nie być już prerogatywą kilku organizacji.
„Dziś niewiele firm czy rządów ma do dyspozycji modele językowe najwyższego poziomu. Ale zwiększone inwestycje w nowoczesne modele generatywne mogą zwiększyć szanse, że dostęp do nich będą mieli także propagandziści” – czytamy w raporcie.
„Trolle” mogą również korzystać z technologii masowego przesyłania wiadomości, spamu, mówi Gary Marcus, specjalista od sztucznej inteligencji i założyciel Geometric Intelligence, firmy przejętej przez Ubera w 2016 roku.
„Spamerzy celują w najbardziej łatwowierne osoby – klikają one w ich linki, co pozwala im na maksymalne zwiększenie oglądalności. A dzięki sztucznej inteligencji ta metoda może stać się gigantyczna.”
Ponadto, nawet jeśli platformy takie jak Twitter i Facebook usuną trzy czwarte złośliwych treści, „w mediach społecznościowych nadal będzie co najmniej 10 razy więcej treści niż wcześniej, które mogą wprowadzać ludzi w błąd” – mówi Marcus.
Gwałtowny wzrost liczby fałszywych kont w mediach społecznościowych stał się poważnym problemem, a rozwój modeli językowych spowoduje zalanie platform społecznościowych jeszcze większą liczbą fałszywych profili.
„System taki jak ChatGPT mógłby wynieść oszustwa kont na niespotykany dotąd poziom” – mówi Vincent Konitzer, profesor informatyki na Carnegie Mellon University. – „Coraz trudniej będzie stwierdzić, czy dana osoba lub program jest prawdziwym właścicielem konta.
Zarówno Goldstein, jak i WithSecure Intelligence ostrzegają, że generatywne modele językowe mogą szybko i sprawnie tworzyć artykuły fake news w mediach społecznościowych, dodatkowo zwiększając przepływ fałszywych wiadomości i narracji, które mogą wpływać na elektorat przed ważnymi wyborami.
Ale jeśli systemy AI, takie jak ChatGPT, dalej wzmacniają dezinformację i rozprzestrzenianie się fake newsów, pojawia się pytanie: czy media społecznościowe powinny być bardziej proaktywne w reagowaniu? Niektórzy eksperci uważają, że nie mogą.
„Platformy mają flagować fałszywe treści, ale Facebook oblewa ten test” – mówi Luis Amaral, portugalski fizyk znany z badań nad systemami złożonymi i sieciami.
„Powodem tej bezczynności są koszty monitorowania każdego stanowiska z osobna. Dodatkowo te fałszywe posty mają na celu rozdrażnienie i podzielenie odbiorców. A to pobudza zaangażowanie widzów. Dlatego jest to korzystne przede wszystkim dla samego Facebooka.”