Anthropic은 "책임있는 스케일링 정책"(RSP)을 사용하여 점점 더 유능한 AI 모델과 관련된 위험을 관리합니다 [5]. 이 정책은 위험한 생물학적 재료를 처리하기위한 미국 정부의 생물 안전 수준 표준에서 영감을 얻은 AI 안전 수준 (ASL)이라는 프레임 워크를 사용합니다 [5]. ASL 프레임 워크는 안전, 보안 및 운영 표준을 구현하도록 설계되었습니다.
Anthropic의 최고의 현재 모델은 ASL-2에 있습니다 [4]. 이 회사는 ASL-2 및 ASL-3에 대한 격리 및 배치 조치를 정의하며 ASL-3 모델을 훈련시키기 전에 ASL-4 안전 조치를 정의하는 데 도움이됩니다 [4]. ASL-1은 의미있는 치명적인 위험을 초래하지 않는 시스템을 말합니다 [5].
또한 AI 행동을보다 예측 가능하고 이해할 수 있도록하기 위해 AI 시스템, 특히 딥 러닝 모델의 내부 작업을 해부하고 이해하는 기계적 해석 가능성에도 인류가 투자됩니다 [5].
인용 :
[1] https://www.prompthub.us/blog/using-anthropic-best-practices-parameters-and-large-context-windows
[2] https://www.techrepublic.com/article/anthropic-claude-large-language-model-research/
[3] https://aizi.substack.com/p/comments-on-anthropics-scaling-onosemanticity
[4] https://ailabwatch.org/companies/anthropic/
[5] https://klu.ai/glossary/anthropic-ai
[6] https://help.promptitude.io/en/articles/8892919- underding-anthropic-models-a-simple-guide
[7] https://www.anthropic.com/news/anthropics-responsible-scaling-policy
[8] https://www.lesswrong.com/posts/vaopgqhfpdjca8ceh/anthropic-reflectionson-oour-responsible-scaling-policy