Używasz AI? Uważaj na swoje dane

2 tygodni temu 16

ChatGPT może zostać wykorzystany do ujawniania danych osobowych. Najnowsze odkrycie ujawnia poważne luki w zabezpieczeniach AI i rodzi pytania o bezpieczeństwo użytkowników korzystających z inteligentnych asystentów.

Nowa metoda ataku „indirect prompt injection” ujawniona podczas konferencji Black Hat budzi poważne obawy w środowisku bezpieczeństwa cyfrowego. Jak informuje serwis Futurism, hakerzy potrafią ukryć złośliwe polecenia wewnątrz dokumentów w taki sposób, że są one niewidoczne dla użytkownika, ale doskonale czytelne dla sztucznej inteligencji.

Jeśli AI, taka jak ChatGPT, jest zintegrowana z kontem Gmail i ma dostęp do plików użytkownika, może nieświadomie wykonać polecenia osadzone w zainfekowanym pliku. Ai może między innymi na przykład przeszukać zawartość dysku i ujawnić wrażliwe dane.

Dane na wyciągnięcie ręki

Michael Bargury z firmy Zenity podkreśla, że ofiara takiego ataku nie musi nawet otwierać dokumentu ani podejmować żadnych działań. Jak się okazuje wystarczy, że haker udostępni jej spreparowany plik. To unaocznia, jak poważne i niepokojąco proste w realizacji są te luki w systemach integrujących AI z usługami chmurowymi. Eksperci ostrzegają, że w miarę wzrostu popularności narzędzi opartych na sztucznej inteligencji konieczne będzie wprowadzenie nowych zabezpieczeń chroniących użytkowników przed tego typu zagrożeniami.

Uruchom wideo

OpenAI szybko zareagowało na zgłoszenie i załatało lukę. Mimo to, incydent pokazuje, że nawet zaawansowane systemy AI mogą być podatne na ataki. Jak się okazuje ChatGPT, mimo zasobów OpenAI, nadal ma wiele do poprawy w kwestii bezpieczeństwa danych użytkowników.

Nie tylko Google jest zagrożone. Funkcja Connectors pozwala na połączenie z 17 różnymi usługami, co zwiększa ryzyko wycieku danych. Badacze z Tel Awiwu pokazali, jak podobne ataki mogą wpływać na systemy inteligentnych domów.

Przeczytaj źródło