Antropico utilizza l'intelligenza artificiale costituzionale e la formazione di innocuimento per garantire che i suoi modelli AI siano utili, onesti e innocui [3]. Questo approccio mira a ridurre il rischio del marchio e garantisce che il sistema di intelligenza artificiale sia affidabile, interpretabile e sterzabile [3]. I modelli di Antropico sono progettati per elaborare grandi quantità di dati di testo, comprensione e generazione di codice, rendendoli utili per le attività di sviluppo del software e altre applicazioni come il servizio clienti e la codifica legale [3].
Le differenze chiave nell'approccio del ragionamento di Antropico, rispetto ai tradizionali modelli di linguaggio di grandi dimensioni, includono:
* Concentrati sulla sicurezza dell'intelligenza artificiale: antropico è dedicato alla creazione di sistemi di intelligenza artificiale affidabili e interpretabili che si allineano con i valori umani e gli standard di sicurezza [2]. L'azienda si concentra sulla comprensione e la mitigazione dei rischi associati all'IA attraverso la ricerca in elaborazione del linguaggio naturale, feedback umano e interpretabilità [2].
* AI costituzionale: antropico impiega AI costituzionale, insegnando ai suoi modelli la differenza tra giusto e sbagliato [7]. Questo nuovo approccio è cruciale poiché i modelli linguistici diventano sempre più fonti di fatti e verità [7].
* Caratteristiche interpretabili: i ricercatori di Antropico estraggono le caratteristiche interpretabili da grandi modelli di linguaggio come Claude 3, traducendole in concetti comprensibili umani [4]. Queste caratteristiche interpretabili possono applicarsi allo stesso concetto in lingue diverse e sia a immagini che a testo [4].
* Mappatura della mente di LLM: Antropico ha fatto passi da gigante nel decifrare i meccanismi interni dei modelli di grandi dimensioni (LLM) usando il dizionario apprendendo per mappare milioni di funzionalità all'interno del loro modello AI, Claude Sonnet [2]. Ciò migliora la sicurezza e l'interpretazione dell'IA, offrendo una comprensione più profonda di come l'IA elabora le informazioni [2]. Manipolando queste caratteristiche, l'antropico può alterare le risposte di Claude, dimostrando una relazione causale diretta tra le attivazioni dei neuroni e l'output della modalità, che può mettere a punto il comportamento di intelligenza artificiale per migliorare la sicurezza e le prestazioni [2].
* Ragionamento antropico: il ragionamento antropico pone che l'esistenza di osservatori impone vincoli alle caratteristiche dell'universo [1]. Il debole principio antropico (WAP) suggerisce che possiamo osservare solo quegli aspetti dell'universo che sono compatibili con la nostra esistenza come osservatori [1]. Il forte principio antropico (SAP) propone che le leggi e le costanti dell'universo siano strutturate in modo che la vita sia inevitabile [1]. Il ragionamento antropico enfatizza il pregiudizio di selezione intrinseco nelle nostre osservazioni e fornisce approfondimenti sulla messa a punto dell'universo e sui vincoli sull'indagine scientifica [1].
Citazioni:
[1] https://newspaceeconomy.ca/2024/11/23/therole-oof-anthropopic-raasing-in-understanding-the-universe/
[2] https://theaitrack.com/anthropopic-mapping-the-mind-of-large-laguage-models/
[3] https://help.promptitude.io/en/articles/8892919-understanding-anthropic-models-a-simple-guide
[4] https://www.techrepublic.com/article/anthropopic-claude-large-language-model-research/
[5] https://risingentropy.com/in-paravo-of-anthropic-rageing/
[6] https://www.anthropic.com/research/mapping-mind--language-model
[7] https://www.marketingaiinstitute.com/blog/anthropopic-claude-constitutional-ai
[8] https://www.activeoop.ai/resources/how-to-compare-large-language-models-gpt-4-3-5-vs-anthropop-claude-vs-cohere/