Aller au contenu

Anthropic

Un article de Wikipédia, l'encyclopédie libre.
Anthropic
Histoire
Fondation
Cadre
Type
Forme juridique
Domaines d'activité
Siège
Pays
Organisation
Effectif
500 employés ()Voir et modifier les données sur Wikidata
Fondateurs
Dario Amodei, Daniela Amodei, Chris Olah (d), Jared Kaplan (d)Voir et modifier les données sur Wikidata
Produit
Site web
Identifiants
OpenCorporates

Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI[1],[2]. Elle développe Claude, une famille de grands modèles de langage, et est aussi connue pour ses recherches en sécurité de l'IA, particulièrement en interprétabilité. Amazon et Google ont récemment investi plusieurs milliards de dollars dans Anthropic[3].

Anthropic a été fondée en 2021 par d'anciens membres seniors d'OpenAI dont Daniela Amodei et Dario Amodei, ce dernier ayant été vice-président de la recherche d'OpenAI[4],[5],[6]. Cette décision de quitter OpenAI aurait notamment été motivée par des désaccords sur la vision stratégique de OpenAI et son partenariat avec Microsoft en 2019[7].

En mai 2024, Mike Krieger, cofondateur d'Instagram et d'Artifact, rejoint la start-up. À la même période, l'ancien responsable de la sécurité d'OpenAI, Jan Leike, rejoint aussi Anthropic, suivi par un autre cofondateur d'OpenAI, John Schulman, en août. En octobre 2024, Durk Kingma, encore un autre cofondateur d'OpenAI, rejoint Anthropic[8].

Anthropic a développé son propre chatbot, nommé Claude notamment en honneur au mathématicien Claude Shannon[9],[10]. La version initiale, ainsi qu'une version allégée nommée « Claude Instant », sont sorties en mars 2023. Ces versions sont initialement restées disponible en version bêta fermée via une intégration Slack, puis rendues accessibles via l'application Poe de Quora[11]. Anthropic a par la suite créé un site dédié, claude.ai.

En mars 2024, Anthropic a lancé Claude 3, qui inclut trois modèles de différente taille: Haiku, Sonnet et Opus. En octobre 2024, avec la sortie d'une version améliorée de Claude 3.5 Sonnet, Anthropic a lancé une fonctionnalité permettant à Claude de contrôler un ordinateur en utilisant des captures d'écran, des clics et un clavier virtuel, lui permettant ainsi d'effectuer des tâches nécessitant plus d'autonomie[12].

IA constitutionnelle

[modifier | modifier le code]

L'IA constitutionnelle est une approche développée par Anthropic pour entraîner les systèmes d'IA (et en particulier les grands modèles de langage comme Claude) à être utiles, sincères et inoffensifs sans nécessiter de feedback humain[13].

Dans une phase d'apprentissage supervisé, le modèle génère des réponses, s'auto-critique sur la base d'un ensemble de principes (une « constitution »), puis ajuste ses réponses. Ces réponses davantage conformes à la constitution sont ensuite utilisées pour entraîner le modèle[13].

Puis, dans une phase d'apprentissage par renforcement, le modèle génère des réponses et les compare, favorisant celles qui satisfont le plus un principe aléatoire de la constitution. Ces données permettent d'entraîner un modèle de préférences, qui juge des réponses en fonction de leur degré de conformité à la constitution. Claude est ensuite ajusté à satisfaire ce modèle de préférences. Cette technique est similaire à l'apprentissage par renforcement à partir de rétroaction humaine, qui entraîne cependant le modèle de préférences avec des comparaisons humaines, là où avec l'IA constitutionnelle les comparaisons sont faites automatiquement avec l'IA se font sur la base de la constitution[14],[13].

Certains principes de la constitution sont tirés de la Déclaration universelle des droits de l'homme de l'ONU[13].

Recherche en interprétabilité

[modifier | modifier le code]

Anthropic publie également des recherches en interprétabilité des systèmes d'IA (une discipline visant à en comprendre le fonctionnement interne), en se concentrant sur les transformeurs, qui sont des modèles d'IA très utilisés dans le traitement du langage[15].

Notes et références

[modifier | modifier le code]
  1. (en-US) « ChatGPT must be regulated and A.I. can be used by bad actors, warns OpenAI’s CTO », finance.yahoo.com (consulté le )
  2. (en-US) Vincent, « Google invested $300 million in AI firm founded by former OpenAI researchers », The Verge, (consulté le )
  3. (en) « Grâce aux milliards de Google et Amazon, Anthropic refait son retard sur OpenAI », latribune.fr,‎ (lire en ligne, consulté le )
  4. (en-US) Papadopoulos, « Google invests $400 million in Anthropic to battle the power of ChatGPT », interestingengineering.com, (consulté le )
  5. « OpenAI Is Making Headlines. It’s Also Seeding Talent Across Silicon Valley », The Information (consulté le )
  6. (en-US) « Daniela and Dario Amodei on Anthropic », Future of Life Institute (consulté le )
  7. (en-US) « As Anthropic seeks billions to take on OpenAI, industrial capture is nigh. Or is it? », sur VentureBeat, (consulté le )
  8. (en-US) Kyle Wiggers, « Anthropic hires OpenAI co-founder Durk Kingma », sur TechCrunch, (consulté le )
  9. (en) Kevin Roose, « Inside the White-Hot Center of A.I. Doomerism », sur The New York Times,
  10. (en) « ChatGPT must be regulated and A.I. can be used by bad actors, warns OpenAI’s CTO », Fortune (consulté le )
  11. (en-US) « Quora opens its new AI chatbot app Poe to the general public », TechCrunch, (consulté le )
  12. « Comment Apple Intelligence peut conquérir le monde (et au moins l'écosystème Apple) », sur Le Monde Informatique, (consulté le )
  13. a b c et d (en) Will Henshall, « What to Know About Claude 2, Anthropic's Rival to ChatGPT », sur Time, (consulté le ).
  14. (en) Lance Eliot, « Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law », sur Forbes, (consulté le ).
  15. « Transformer Circuits Thread », transformer-circuits.pub (consulté le )

Liens externes

[modifier | modifier le code]