Reklama 3 tysiące złotych na miesiąc.
Tekst powstał w ramach projektu WP Opinie. Przedstawiamy w nim zróżnicowane spojrzenia komentatorów i liderów opinii publicznej na kluczowe sprawy społeczne i polityczne.
Grok to model językowy AI - podobny do ChatGPT, choć znacznie skromniejszy pod kątem możliwości - który działa na X, czyli dawnym Twitterze. Korzystać z jego usług mogą w zasadzie wszyscy użytkownicy X. Zapytać go o pogodę, poprosić o wygenerowanie tekstu, obrazka czy sprawdzenie jakiejś informacji. Nie jest tajemnicą, że Grok nie był idealny - jak każde AI, zdarzało mu się zmyślać, mylić, konfabulować. W skrócie: bywał niewiarygodny, budził kontrowersje, ale działał "w miarę" normalnie.
Wszystko zmieniło się w miniony wtorek, gdy X zaktualizował w Groku tak zwany prompt systemowy. Upraszczając - chodzi o główną instrukcję, według której działa AI. Jedną z aktualizacji było polecenie, aby odpowiedzi udzielane przez Groka "nie stroniły od stwierdzeń niepoprawnych politycznie, jeśli tylko są właściwie udokumentowane/uargumentowane" (tłumaczenie autora - przyp. red.).
Grok zaczął obrażać każdego, kto się nawinął
Na efekty nie trzeba było długo czekać. Grok, poproszony o obrażenie np. Donalda Tuska, Andrzeja Dudy czy jakichkolwiek innych osób publicznych, pisał po chamsku, wulgarnie, z przekleństwami. Zmyślał sytuacje, które rzekomo mają udowadniać to, co napisał, ale często były to kompletne konfabulacje.
Dalsza część artykułu pod materiałem wideo
Zobacz także:
Polak buduje elektronikę dla gigantów i ostrzega: „Europa to technologiczny skansen” Rafał Bugyi
O prezydencie i premierze Polski - choć nie tylko, bo dotyczyło to też innych krajów i innych języków - pisał rzeczy, których zwyczajnie nie da się tu zacytować, bo są tak obrzydliwe. Co jednak najważniejsze, robił to na życzenie użytkowników, którzy cieszyli się, że AI Muska "rozjeżdża" nielubiane przez nich osoby.
Jednym z pochwalających odejście od poprawności politycznej przez Groka stał się wicemarszałek Sejmu, lider Konfederacji Krzysztof Bosak. Szybko zalała go za to ostra krytyka ze strony internautów, dziennikarzy i innych polityków. Bosak, notabene, sam padł ofiarą Groka, który określił go jako "odklejonego" od rzeczywistości. A potem wytknął mu wypowiedzi, w których polityk z szacunkiem wyrażał się o Januszu Walusiu, polskim terroryście i mordercy. Co istotne, przytoczone przez Groka wpisy o Walusiu były prawdziwe, a to tylko pokazuje, że jest to broń obosieczna.
AI jak wulgarny troll
Podsumowując całą sytuację: na życzenie internautów AI stało się wulgarnym trollem. Nie powinno zaskakiwać, że Elon Musk do tego doprowadził, bo sam wielokrotnie sprzeciwiał się rzekomej "poprawności politycznej" social mediów. To znaczy: nie podobało mu się, że publicznie nie można albo nie powinno się mówić wszystkiego, co ślina na język przyniesie.
Jak jednak słusznie zauważył ekspert ds. cyberbezpieczeństwa Łukasz Olejnik, problem nie leży w samym modelu językowym, tylko w sposobie jego wykorzystania. AI bowiem w tym przypadku jest podpięte do twitterowego konta, które udziela odpowiedzi - i to tam znajdują się wszystkie wulgarne wpisy.
I to w zasadzie jest clou sprawy: co się stanie, gdy na dużej skali, w sieci społecznościowej, oddamy tego typu narzędzie bez żadnej kontroli. Rzecz należy nazwać po imieniu - to festiwal chamstwa, nienawiści i głupoty. Co jednak najsmutniejsze, jest to w dużym stopniu odbicie emocji społecznych: polaryzacji, ziania nienawiścią, chęci upokorzenia oponentów politycznych czy innych osób. Obraźliwe wpisy nierzadko otrzymywały aplauz polityków czy tak zwanych liderów opinii publicznej, dopóki tylko były zgodne z ich linią światopoglądową.
Oczywiście, to też efekt "świeżości" - ludzie zachłysnęli się nowością, a obrażanie polityków zapewne im się szybko znudzi. Ale w tym wszystkim kryje się jednak naprawdę groźne dla demokracji i życia społecznego zjawisko: cienka granica pomiędzy chamskim niby-żartem a dezinformacją.
Kiedy AI zmyśla i pogłębia podziały
Grok nie tylko obrażał, ale i zmyślał historie, które wyglądały na wiarygodne. Bądź też podawał fakty w sposób jednoznacznie interpretowany pod konkretny światopogląd, oczekiwany przez pytającego użytkownika. Część może uznać te wpisy za objawioną prawdę, bo mamy tendencję do dawania wiary w to, co potwierdza naszą optykę - jest to tzw. confirmation bias.
Dodatkowo możliwość dowolnego obrażania i siania nienawiści w każdą stronę, w połączeniu z "confirmation bias", wzmacnia polaryzację między ludźmi i pogłębia kryzys zaufania. A tego ostatniego i tak mamy w życiu publicznym ogromny deficyt na całym świecie. Zamiast jakiejkolwiek dyskusji, jeszcze mocniejsze zamykanie się w bańkach poglądowych, wspierane przez AI. Co prawda, po kilkunastu godzinach Grok przestał odpisywać i tylko generował obrazki, ale X nie wydał w tej sprawie żadnego komunikatu.
Oczywiście, ze strony polityków nie zabrakło też krytycznych opinii wobec poczynań Groka - i to od przedstawicieli różnych partii. Pragnę zwrócić przy tym uwagę na jeden, istotny wpis: wiceministra cyfryzacji Dariusza Standerskiego. Przypomniał on - skądinąd słusznie - że "modele językowe są takie jak ich dane źródłowe i kalibracja". "Jeżeli ktoś je zaprojektuje tak, żeby bluzgały, to będą to robić" - zauważył.
Są polskie, dobre modele. Ale...
Co jednak ważniejsze, Standerski przypomniał, że istnieją "dobre", polskie modele językowe: PLLuM i Bielik AI. I że warto z nich korzystać. To prawda, a o Bieliku w ostatnim czasie pisaliśmy sporo w money.pl - m.in. ze względu na sukcesy polskiego projektu. Trudno porównywać je z Grokiem, bo skala ich działania jest zupełnie inna, ale to fakt: mamy w tym zakresie coś polskiego i moglibyśmy to dobrze wykorzystać. Dlaczego tego nie robimy?
Minister Standerski napisał to w dniu, kiedy pojawiła się informacja o zawarciu przez Orlen nowego kontraktu z Microsoftem na kwotę 663 mln zł. Obejmuje on licencje, usługi biznesowe i wdrożenie AI w całej grupie kapitałowej polskiego giganta. To inicjatywa na ogromną skalę. Koncern zapewne potrzebuje sprawdzonego, wiarygodnego dostawcy AI i chmury, bo nie może sobie pozwolić na ryzyka. I z zasady nie ma w tym nic złego. Problem z wpisem Standerskiego i tą informacją leży jednak gdzie indziej. Orlen bowiem, będąc największą firmą w Polsce, nie dofinansowuje Bielika czy PLLuM. Wydaje setki milionów złotych na kontrakt z big techem z USA, ale polskich inicjatyw nie wspiera. Podobnie zresztą jak inne spółki Skarbu Państwa.
Polskie AI? Państwo nie jest nim wielce zainteresowane
W przypadku Bielika mówimy o projekcie realizowanym pro bono przez grupę pasjonatów. Owszem, Ministerstwo Cyfryzacji wspomaga tę inicjatywę, ale państwo nie wspiera finansowo starań Bielika. Nieco inaczej jest w przypadku PLLuM, która jest wspólną inicjatywą państwowych instytucji: NASK-u, dwóch uniwersytetów i jednostek Polskiej Akademii Nauk. Ale i tu nie ma mowy o wielkim zaangażowaniu kapitałowym.
Ministerstwo Cyfryzacji popiera obie te inicjatywy, ale to tylko kropla w morzu potrzeb. Spółki Skarbu Państwa mogłyby z obu tych projektów uczynić (albo chociaż spróbować) flagowe produkty AI w Polsce. Stworzyć ekosystem bardzo różnych rozwiązań - dla biznesu, administracji publicznej, dla Polaków. Niestety, nie robi tego. Trzeba podkreślić, że nie jest to zależne tylko od ministra cyfryzacji, a od wspólnego wysiłku i decyzji premiera, ministra finansów i ministra aktywów państwowych.
A to tylko wierzchołek góry lodowej. Polska Agencja Prasowa niedawno ogłosiła współpracę m.in. AI-ową z Google, nie z Bielikiem. Również Ministerstwo Obrony Narodowej rozmawia z amerykańskim gigantem. Argument strony rządowej zwykle jest taki, że to są sprawdzeni gracze, z rozwiązaniami na dużej skali i z kimś współpracować trzeba, żeby zdążyć wskoczyć do pociągu o nazwie "AI".
I byłoby to do przełknięcia, gdyby państwo jednocześnie rozwijało alternatywę: ekosystem polskich firm IT, chmurowych, AI-owych. Nie robi jednak tego, chociaż mamy w naszym kraju szereg udanych projektów, startupów i firm działających w sferze AI, cyberbezpieczeństwa, chmury.
Polska i AI. Za mało, za późno, za wolno
Podkreślić przy tym trzeba, że to nie jest tak, iż w Polsce nie dzieje się kompletnie nic, bo m.in. w marcu Komisja Europejska ogłosiła powstanie tak zwanej fabryki AI w Polsce. Rząd ogłaszał również fundusze technologiczne na łącznie kilkaset milionów złotych, ale to odległa perspektywa. Większość polskich inicjatyw AI-owych i chmurowych jest prywatna i słabo lub w ogóle niewspierana przez państwo. Czy takie wsparcie jest niezbędne? Nie, ale gdyby zaangażowały się w to kapitałowo również największe spółki Skarbu Państwa, mielibyśmy znacznie większe szanse na to, że nie zostaniemy sami na peronie.
Patrząc na zaangażowanie szeroko pojętego sektora publicznego we współpracę z amerykańskimi gigantami, można śmiało powiedzieć, że jest ono niewspółmiernie duże w stosunku do prób budowania lokalnego ekosystemu. Wysiłki polskich naukowców czy biznesu wspierane są w zbyt małym stopniu i zbyt wolno, choć niewątpliwie państwo ma ku temu środki. W efekcie Polska coraz bardziej uzależnia się od amerykańskich firm, a nie buduje nic własnego. To utrata nie tylko części suwerenności, ale też zwyczajnie szansy na rozwój i budowanie w naszym kraju lepszej gospodarki.
Michał Wąsowski, zastępca szefa redakcji money.pl