W tym czasie eksperci i zwykli użytkownicy zadają sobie pytanie: jak wiele naszych danych może trafić na chińskie serwery i w jaki sposób są one tam wykorzystywane? Część obserwatorów uważa, że to kolejny rozdział w globalnej rywalizacji o wpływy na rynku technologii i że Europa nie zamierza tym razem stać z boku, przyglądając się temu bezczynnie.
Czym jest DeepSeek i dlaczego budzi kontrowersje?
DeepSeek jest modelem językowym opracowanym w Chinach, który zyskał ogromną popularność w rekordowo krótkim czasie. Wiele osób porównuje go do ChatGPT, czyli głośnego narzędzia AI wypuszczonego pod koniec listopada 2022 roku. ChatGPT był jak powiew świeżości w Internecie – miliony użytkowników zaczęły zadawać mu pytania, czekając czasem w długiej kolejce na odpowiedź. Jednak teraz to DeepSeek zwraca na siebie uwagę, głównie dlatego, że pod względem zakresu odpowiedzi, szybkości i domniemanej wydajności podobno zjada konkurencję na śniadanie. Ale czy rzeczywiście jest tak rewelacyjny?
Jako produkt chińskiej firmy, DeepSeek wzbudza zainteresowanie także z innego powodu. Transfer danych użytkowników do Chin natychmiast wzbudził czujność włoskiego organu ochrony danych i organizacji konsumenckich zrzeszonych w Euroconsumers. Jeśli połączymy to z faktem, że Chiny od dawna budzą w Europie obawy związane z prywatnością oraz przechowywaniem i przetwarzaniem danych, otrzymujemy wyjątkowo wybuchową mieszankę. Pojawia się więc pytanie, czy DeepSeek podchodzi do kwestii ochrony danych wystarczająco poważnie, a może po prostu brakuje mu odpowiednich zabezpieczeń?
Włoskie śledztwo i głos Euroconsumers
Pierwsze formalne działania wobec DeepSeek podjęła właśnie włoska DPA, która oficjalnie poprosiła chińskiego giganta o wyjaśnienia w sprawie sposobu przetwarzania danych osobowych. Firma otrzymała na odpowiedź 20 dni, co w prawniczym świecie jest sygnałem, że temat jest palący i nie ma tu miejsca na przeciąganie. Euroconsumers, organizacja reprezentująca interesy konsumenckie w kilku krajach Europy, również nie kryje swoich wątpliwości. Jej przedstawiciele podkreślają, że DeepSeek zbiera i przetwarza ogromne ilości danych, prawdopodobnie w celu ulepszania modelu AI. Jednak do tej pory nikt z zewnątrz nie dostał jasnych informacji na temat tego, co dokładnie firma robi z danymi użytkowników.
Wiele kontrowersji budzi też kwestia ochrony danych najmłodszych użytkowników. DeepSeek co prawda deklaruje, że nie udostępnia swojej technologii osobom poniżej 18. roku życia, lecz brakuje jasnego mechanizmu weryfikacji wieku. Trudno uznać takie zapisy za wiarygodne, gdy każdy może w kilka sekund założyć konto i zacząć korzystać z narzędzia. O ile nie jest to problem wyłącznie chińskich serwisów (bo i inne platformy borykają się z podobnymi bolączkami), to napięta atmosfera wokół DeepSeek sprawia, że ten aspekt przykuwa większą uwagę organów regulacyjnych.
Granice technologii a etyka
Technologia sztucznej inteligencji rozwija się w zawrotnym tempie. Modele językowe uczą się, analizując gigantyczne bazy danych, często gromadzone z rozmaitych źródeł: od wpisów na forach internetowych, przez komentarze na mediach społecznościowych, aż po całe portale informacyjne. Wszystkie te materiały mogą zawierać wrażliwe informacje, a zadaniem firm takich jak DeepSeek czy OpenAI jest zadbanie, by anonimowość i prywatność użytkowników były respektowane.
Rodzi się jednak wątpliwość, czy w świecie, w którym dane płyną w tak wielu kierunkach, da się w pełni kontrolować, co dzieje się z każdym skrawkiem informacji? W teorii mamy unijne rozporządzenie GDPR, które ustala surowe standardy ochrony prywatności, a niedługo na horyzoncie pojawi się również tzw. AI Act, czyli unijna ustawa o sztucznej inteligencji. Niemniej chińskie firmy mogą po prostu wytransferować dane na serwery poza Europą i tam w pewnym sensie przepisy te stają się iluzoryczne. Właśnie to martwi zarówno włoskie organy, jak i organizacje broniące praw konsumenckich.
Kwestia cenzury i rola unijnych regulacji
Jeszcze jednym tematem, który zaczyna niepokoić użytkowników w Europie, jest potencjalna cenzura. Chińskie modele AI bywają tak „wychowywane”, by pomijały pewne niewygodne kwestie polityczne czy społeczne, zgodnie z linią rządu w Pekinie. Niektórych niepokoi, że jeśli tak wielka część świata przeniesie się do usług takich jak DeepSeek, to globalny przepływ informacji może stać się mniej rzetelny i przejrzysty. Co się stanie, kiedy model AI uzna pewne hasła czy zapytania za nieodpowiednie? Czy wówczas użytkownicy z Europy także będą tego „cenzurowani” rykoszetem?
Choć Komisja Europejska uspokaja, że każdego, kto świadczy usługi w UE, obowiązują lokalne przepisy, to wszyscy zdajemy sobie sprawę, że egzekwowanie tych regulacji na międzynarodowym polu bywa trudne. Thomas Regnier, rzecznik Komisji ds. suwerenności technologicznej, wspomina co prawda, że unijne ramy prawne są wystarczająco elastyczne, by dostosować się do szybko zmieniającej się rzeczywistości, ale życie pisze różne scenariusze. W najlepszym wypadku DeepSeek odnajdzie się w tej nowej sytuacji, zyskując zaufanie użytkowników, a w najgorszym, może czekać go seria kolejnych batalii prawnych.
Co dalej?
Nic dziwnego, że Włosi chcą dokładnie przyjrzeć się DeepSeek, skoro mowa o potencjalnym naruszeniu bezpieczeństwa danych milionów obywateli. Sprawa ta może stać się symbolem szerszego trendu, w którym kolejne kraje będą wspólnie pilnować, by międzynarodowe korporacje ze wschodu i zachodu nie zapominały o europejskich standardach ochrony prywatności. Być może przy okazji to my, użytkownicy, bardziej zaczniemy zwracać uwagę na to, jak i gdzie przechowywane są nasze informacje. Zdarza Ci się przeglądać politykę prywatności, kiedy instalujesz nową aplikację? Wiem, że niewielu z nas to robi, ale właśnie takie sytuacje jak z DeepSeek mogą przypomnieć nam, że warto wiedzieć, co dzieje się z naszymi danymi.