W erze, gdy sztuczna inteligencja staje się naszym codziennym towarzyszem, Sam Altman, CEO OpenAI, rzuca nowe światło na kwestię prywatności. W niedawnym wywiadzie ostrzegł, że rozmowy prowadzone z ChatGPT nie są objęte żadną formą ochrony prawnej, co oznacza, że mogą one zostać wykorzystane jako dowody w postępowaniach sądowych. To wyznanie budzi kontrowersje, zwłaszcza wśród tych, którzy traktują bota jak wirtualnego terapeutę.
Ostrzeżenie od szefa OpenAI
Sam Altman, w rozmowie na podcaście "This Past Weekend" z Theo Vonem, przyznał, że użytkownicy często dzielą się z ChatGPT najbardziej intymnymi szczegółami swojego życia. Podkreślił jednak, że te interakcje nie podlegają ochronie, jaką zapewnia np. tajemnica lekarska czy adwokacka. "Jeśli opowiesz ChatGPT o swoich najwrażliwszych sprawach, a potem dojdzie do sprawy sądowej, możemy być zmuszeni do ujawnienia tych danych" – powiedział Altman. To głównie wynika z braku regulacji prawnych, które traktowałyby AI jako podmiot objęty poufnością.
Dlaczego to problem?
Wiele osób, szczególnie młodszych użytkowników, korzysta z ChatGPT w roli improwizowanego terapeuty. Altman zauważył, że boty AI są tańszą i łatwiej dostępną alternatywą dla tradycyjnej terapii, ale bez gwarancji dyskrecji. W Stanach Zjednoczonych i innych krajach, wezwania sądowe (subpoena) mogą zmusić firmy jak OpenAI do udostępnienia historii czatów. To rodzi pytania o etykę i bezpieczeństwo danych w dobie rosnącej popularności narzędzi AI.
Reakcje społeczności
Informacja szybko obiegła media społecznościowe. Na platformie X użytkownicy wyrażają mieszane uczucia – od zaskoczenia po ironiczne komentarze, że "teraz nawet AI nie jest dyskretne". Niektórzy widzą w tym marketingowy chwyt OpenAI, inni domagają się zmian w prawie, by objąć rozmowy z AI podobną ochroną jak sesje terapeutyczne. Altman sam zasugerował, że potrzebne są nowe regulacje, by użytkownicy czuli się bezpieczniej.
Co to oznacza dla użytkowników?
Jeśli regularnie korzystasz z ChatGPT, warto przemyśleć, co udostępniasz. OpenAI przechowuje dane, by ulepszać model, ale w razie prawnych żądań nie może ich chronić. Eksperci radzą, by unikać wrażliwych tematów lub korzystać z opcji usuwania historii czatów. To ostrzeżenie podkreśla szerszy problem w branży tech: równowagę między innowacją a ochroną prywatności.
Kontekst biznesowy OpenAI
OpenAI, pod wodzą Altmana, dynamicznie się rozwija. Firma osiągnęła miliardowe przychody, ale nie uniknęła kontrowersji – od zwolnień po debaty o etyce AI. Ostatnie doniesienia wskazują na prace nad zaawansowanymi modelami, co tylko potęguje dyskusje o danych użytkowników.
Podsumowując, słowa Altmana to sygnał, że era AI wymaga nowych ram prawnych. Użytkownicy powinni być świadomi ryzyka, zanim podzielą się kolejnym sekretem z chatbotem.

Sony pozywa Tencent za klon serii Horizon – kontrowersyjny spór o Light of Motiram
Sony Interactive Entertainment nie próżnuje w obronie swoich marek. W najnowszym pozwie skierowany...

Microsoft ostrzega przed zaawansowaną AI: Ludzie nie dostrzegają różnicy
Microsoft, gigant technologiczny, który inwestuje miliardy w rozwój sztucznej inteligencji, właś...
Komentarze