Deepseek, chiński chatbot AI, niedawno spotkał się z znaczącym naruszeniem bezpieczeństwa, które ujawniło poufne dane użytkownika, zwiększając poważne obawy dotyczące praktyk ochrony danych. Naruszenie obejmowało ponad milion wierszy wpisów dziennika, w tym prywatne historie czatów i tajemnice operacyjne, które znaleziono w niezabezpieczonej bazie danych dostępnej dla publiczności [1] [2]. Ten incydent spowodował dochodzenia w Europie i Stanach Zjednoczonych, co doprowadziło do działań regulacyjnych, takich jak usunięcie Deepeek ze sklepu App Store we Włoszech [1] [2].
Odpowiedź na naruszenie
Po odkryciu narażonej bazy danych przez Wiz Research Deepseek działał szybko, aby zabezpieczyć informacje. Firma podobno zdjęła niezabezpieczoną bazę danych Clickhouse w ciągu godziny od powiadomienia, chociaż brak wstępnych środków bezpieczeństwa wzbudził alarmy dotyczące potencjalnego nieautoryzowanego dostępu przed tym działaniem [2] [4]. Naukowcy Wiz zauważyli, że baza danych była całkowicie niezabezpieczona, umożliwiając nieograniczony dostęp do wewnętrznych dzienników i wrażliwych danych bez żadnych mechanizmów uwierzytelniania [2] [4].
Implikacje i badania
Naruszenie doprowadziło do zwiększonej kontroli od organów regulacyjnych. Oprócz szybkich działań Włoch trwają dochodzenia w innych krajach, w tym Irlandii i Stanach Zjednoczonych, koncentrując się na praktykach obsługi danych Deepseek i zgodności z przepisami dotyczącymi prywatności [2] [3]. Rada Bezpieczeństwa Narodowego Stanów Zjednoczonych dokonuje również przeglądu implikacji działalności Deepseek w zakresie bezpieczeństwa narodowego, biorąc pod uwagę wrażliwy charakter zaangażowanych danych [2].
Wyuczone wnioski
Ten incydent podkreśla krytyczną potrzebę solidnych protokołów bezpieczeństwa w rozwoju sztucznej inteligencji. Szybkim wdrażaniu technologii AI musi towarzyszyć surowe środki ochrony danych, aby zapobiec podobnym naruszeniom w przyszłości. Użytkownikom zaleca się zachowanie czujności w odniesieniu do swoich danych osobowych podczas korzystania z usług AI i kontrolowania praktyk bezpieczeństwa platform, z którymi się angażują [1] [4].
Podsumowując, podczas gdy Deepseek podjął kroki w celu rozwiązania bezpośredniego opadu od tego naruszenia, incydent podkreśla szersze problemy dotyczące bezpieczeństwa cybernetycznego w szybko rozwijających się technologiach AI.
Cytaty:
[1] https://www.reporterosdelsur.com.mx/news-en/massive-security-streach-deepseeks-ai-chatbot-exposes-millions-ofsensive-data-entries/96197/
[2] https://www.csoonline.com/article/3813224/deepseek-leaks-one-million-sensiveitive-cords-in-a-major-data-breach.html
[3] https://blog.cofounderai.site/exposed-deepseek-database-reveals-sensive-data-breach-393090627cbb?gi=A5D8A444CBE7
[4] https://thehackernews.com/2025/01/deepseek-ai-database-exposed-over-1.html
[5] https://chat.deepseek.com/downloads/deepseek%20privacy%20policy.html
[6] https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database leak
[7] https://stayaiware.com/story/microsoft-and-openai-investigate-data-breach-bid-deeepseek
[8] https://socradar.io/deepseek-libersecurity-risks-ai-platform/