Anthropic verwendet eine "verantwortungsvolle Skalierungspolitik" (RSP), um Risiken zu verwalten, die mit zunehmend fähigen KI -Modellen verbunden sind [5]. Diese Richtlinie verwendet einen Rahmen namens AI Safety Levels (ASL), der sich von den Standards der Biosicherheit der US -Regierung für die Behandlung gefährlicher biologischer Materialien inspirieren lässt [5]. Das ASL -Framework soll Sicherheits-, Sicherheits- und Betriebsstandards implementieren, die dem Potenzial eines Modells für katastrophales Risiko geeignet sind, wobei höhere ASL -Werte strengere Sicherheitsdemonstrationen erfordern [5].
Die besten aktuellen Modelle von Anthropic sind bei ASL-2 [4]. Das Unternehmen definiert Containment- und Bereitstellungsmaßnahmen für ASL-2 und ASL-3 und verpflichtet sich, ASL-4-Sicherheitsmaßnahmen vor der Schulung von ASL-3-Modellen zu definieren [4]. ASL-1 bezieht sich auf Systeme, die kein aussagekräftiges katastrophales Risiko darstellen [5].
Anthropic wird auch in die mechanistische Interpretierbarkeit investiert, bei der die internen Funktionsweise von KI -Systemen, insbesondere Deep -Lern -Modellen, analysiert und verstanden werden, um das KI -Verhalten vorhersehbarer und verständlicher zu gestalten [5].
Zitate:
[1] https://www.prompthub.us/blog/using-anthropic-best-practices-parameters-and-large-context-windows
[2] https://www.techrepublic.com/article/anthropic-claude-large-language-model-research/
[3] https://aizi.substack.com/p/comments-on-anthropics-scaling-monosemanticity
[4] https://ailabwatch.org/companies/anthropic/
[5] https://klu.ai/glosary/anthropic-ai
[6] https://help.promptitude.io/en/articles/8892919-VERSTANDING-ANTHROPIC-MODELS-A-Simple-Guide
[7] https://www.anthropic.com/news/anthropics-responsible-scaling-policy
[8] https://www.lesswong.com/posts/vaopgqhfpdjca8ceh/anthropic-reflections-on-oursponsible-scaling-policy