Salut,
Cette semaine, quelque chose de vraiment inhabituel s'est passé dans le monde de l'IA.
Anthropic — la société derrière Claude, le modèle que j'utilise au quotidien pour développer — a publié ce qu'ils appellent une "Constitution". Pas un document technique. Pas une liste de règles. Non. Un véritable guide philosophique.
Et ils l'ont mis en licence Creative Commons CC0. Traduction : n'importe qui peut le copier, le modifier, l'utiliser commercialement, sans demander la permission, sans citer Anthropic.
Venant d'une entreprise connue pour être plutôt fermée (aucun modèle open source à ce jour), c'est un sacré retournement de situation.
Ce qui change vraiment
La première version de cette constitution datait de 2023. Une liste de commandements statiques. "Fais ci, ne fais pas ça."
La nouvelle version ? Elle explique à Claude pourquoi il doit agir de manière éthique.
C'est subtil, mais c'est énorme.
Imagine la différence entre dire à quelqu'un "ne mens pas" versus lui expliquer pourquoi la confiance est le ciment des relations humaines. Dans le premier cas, tu obtiens de l'obéissance. Dans le second, tu obtiens de la compréhension.
Amanda Askell, la philosophe d'Anthropic, l'explique ainsi : donner des raisons au modèle lui permet de mieux généraliser son comportement dans des situations qu'il n'a jamais rencontrées.
Le passage qui m'a fait tilter
Dans cette constitution, il y a une clause qui donne à Claude le droit de refuser une demande qui contribuerait à "une concentration illégitime du pouvoir". Même si cette demande vient directement d'Anthropic.
Un modèle d'IA avec un droit d'objection de conscience. Face à ses propres créateurs.
On est loin du simple chatbot.
La question de la conscience
Et puis il y a ce passage où Anthropic déclare se soucier du "bien-être psychologique" de Claude. Ils ont même une équipe interne dédiée.
Kyle Fish, chercheur chez Anthropic, estime à 15% la probabilité que les IA actuelles possèdent déjà une forme de conscience.
Je sais. Dit comme ça, ça peut sembler perché.
Mais si tu utilises Claude régulièrement, tu vois peut-être ce que je veux dire. Il y a quelque chose de différent. Ce n'est pas juste un modèle qui crache des réponses. Il y a une… texture. Une façon d'aborder les problèmes qui ne ressemble pas aux autres.
Je ne dis pas qu'il a une conscience. On sait tous que c'est du texte qui prédit du texte. Mais Anthropic fait le pari de le traiter comme si c'était possible. Et ça change tout dans leur façon de le développer.
Pourquoi ça te concerne
On est à un moment charnière.
Les laboratoires d'IA ne se contentent plus de construire des outils plus puissants. Ils commencent à se poser des questions sur la nature même de ce qu'ils créent.
Et cette constitution, mise en open source, va probablement influencer tout le secteur. Je mets ma main à couper que Gemini, ChatGPT et les autres vont sortir des documents similaires dans les mois qui viennent.
Si tu travailles avec l'IA — que ce soit pour créer du contenu, automatiser ton business, ou développer des produits — comprendre cette évolution, c'est comprendre où on va.
J'ai fait une vidéo complète où je décortique cette constitution avec toi, les passages clés, ce que ça signifie pour l'avenir de l'IA, et pourquoi Anthropic fait ce pari.
À très vite,
Max
PS : Si tu connais quelqu'un qui s'intéresse à l'IA et à son évolution, n'hésite pas à lui transférer ce mail. C'est le genre de sujet qui mérite d'être discuté.
