Anthropic zapewnia bezpieczeństwo swoich modeli AI za pomocą różnych technik i zasad, w tym polityki odpowiedzialnej skalowania (RSP), poziomów bezpieczeństwa AI (ASL), filtrów bezpieczeństwa i modeli detekcji [2] [5]. Bezpieczeństwo użytkownika ma kluczowe znaczenie dla misji Anthropic, aby stworzyć wiarygodne, interpretacyjne i sterowalne systemy AI [5].
Kluczowe miary bezpieczeństwa:
* Anthropic Policy odpowiedzialnej (RSP) opracował RSP do zarządzania ryzykiem powiązanym z coraz bardziej zdolnymi modelami AI [2]. Polityka wprowadza ramy o nazwie poziomy bezpieczeństwa AI (ASL), czerpiąc inspirację ze standardów biologicznych rządu USA (BSL), które są wykorzystywane do obsługi niebezpiecznych materiałów biologicznych [2] [7]. RSP został formalnie zatwierdzony przez zarząd antropika, a wszelkie zmiany w polityce muszą być również zatwierdzone przez zarząd [2].
* Poziomy bezpieczeństwa AI (ASL) Ramy ASL ma na celu zapewnienie, że bezpieczeństwo, bezpieczeństwo i standardy operacyjne są odpowiednie do potencjału modelu dla ryzyka katastrofalnego [2] [7]. Wyższe poziomy ASL wymagają bardziej rygorystycznych demonstracji bezpieczeństwa [2]. Polityka równoważy wartość ekonomiczną i społeczną sztucznej inteligencji z potrzebą ograniczania poważnego ryzyka, zwłaszcza katastrofalnego ryzyka, które mogłyby wynikać z celowego niewłaściwego użycia lub niezamierzonych destrukcyjnych zachowań samych modeli [2].
* Filtry bezpieczeństwa antropiczne wykorzystuje filtry bezpieczeństwa na podpowiedzi, które mogą blokować odpowiedzi z modelu, gdy ich modele wykrywalności oznaczają zawartość jako szkodliwe [5]. Mają także ulepszone filtry bezpieczeństwa, które pozwalają im zwiększyć czułość ich modeli wykrywania [5]. Anthropic może tymczasowo stosować ulepszone filtry bezpieczeństwa użytkownikom, którzy wielokrotnie naruszają ich zasady, i usuwać te kontrole po okresie braku lub kilku naruszeń [5].
* Modele wykrywania antropiczne wykorzystują modele wykrywania, które flagą potencjalnie szkodliwe treści w oparciu o ich zasady użytkowania [5].
Dodatkowe zabezpieczenia:
* Podstawowe zabezpieczenia obejmują one przechowywanie identyfikatorów połączonych z każdym wywołaniem API, aby wskazać konkretną zawartość naruszenia i przypisywanie identyfikatorów użytkownikom w celu śledzenia osób naruszających AUP antropic [1]. Zapewniają również, że klienci rozumieją dozwolone zastosowania i rozważają wymaganie od klientów rejestracji konta na swojej platformie przed skorzystaniem z Claude [1].
* Pośrednie zabezpieczenia antropiczne tworzą ramy dostosowywania, które ograniczają interakcje użytkownika końcowego z Claude do ograniczonego zestawu podpowiedzi lub tylko pozwalają Claude przegląd określonego korpusu wiedzy, zmniejszając zdolność użytkowników do angażowania się w zachowanie naruszenia [1]. Umożliwiają również dodatkowe filtry bezpieczeństwa, które są bezpłatnym oprzyrządowaniem moderacji w czasie rzeczywistym zbudowanym przez antropic w celu wykrywania potencjalnie szkodliwych podpowiedzi i zarządzania działaniami w czasie rzeczywistym w celu zmniejszenia szkody [1].
* Zaawansowane zabezpieczenia uruchamiające API moderacyjne w stosunku do wszystkich użytkowników końcowych, zanim zostaną wysłane do Claude, zapewnia, że nie są szkodliwe [1].
* Kompleksowe zabezpieczenia antropiczne konfigurują wewnętrzny system przeglądu człowieka w celu flagowania podpowiedzi, które są oznaczone przez Claude lub API moderacji jako szkodliwe, aby mogli interweniować w celu ograniczenia lub usuwania użytkowników o wysokim wskaźniku naruszenia [1].
Anthropic jest również zaangażowany w niezawodność i interpretację swoich systemów AI, osiągnięte poprzez rygorystyczne badania i zastosowanie zaawansowanych technik bezpieczeństwa [2]. Znaczącym przełomem w interpretacji jest stosowanie rzadkich autoencoderów przez Antropiku do „monosemantycznego ekstrakcji cech”, które upraszcza złożone sieci neuronowe w zrozumiałe komponenty [2].
Cytaty:
[1] https://support.antropic.com/en/articles/9199617-api-trust-safety-tools
[2] https://klu.ai/glossary/antropic-ai
[3] https://myscale.com/blog/transformative-influence-antropic-ai-safety-measures/
[4] https://www.antropic.com/news/frontier-model-security
[5] https://support.antropic.com/en/articles/8106465-our-approach-to-user-safety
[6] https://www.alignmentforum.org/posts/xhkr5ktvdjrsmej3/antropic-s-core-views-on-ai-safety
[7] https://www.antropic.com/news/Antropics-Responsible-Scaling-policy
[8] https://engineinerideas.substack.com/p/comments-on-antropics-ai-safety
[9] https://www.youtube.com/watch?v=e6_x0zoxvvi
[10] https://www.antropic.com/news/core-views-on-ai-safety