Recherche
À LoiZéro, nous menons des recherches pour concevoir des systèmes d’IA non agentiques qui apprennent à comprendre le monde plutôt qu'à y intervenir, en répondant de manière véridique aux questions posées sur la base d'un raisonnement probabiliste transparent et extériorisé. De tels systèmes d'IA pourraient être utilisés pour accélérer la découverte scientifique, superviser les systèmes d'IA agentiques et faire progresser notre compréhension des risques de l'IA et des moyens de les éviter. Notre approche se distingue de celle des entreprises d'IA de pointe, qui se concentrent de plus en plus sur le développement de systèmes d'IA agentiques. De nombreux expert·e·s mettent en garde contre le fait que le comportement de ces agents de plus en plus performants et autonomes pourrait devenir de plus en plus imprévisible, difficile à interpréter et potentiellement plus dangereux.
Publication à
la une
The leading AI companies are increasingly focused on building generalist AI agents — systems that can autonomously plan, act, and pursue goals across almost all tasks that humans can perform. Despite how useful these systems might be, unchecked AI agency poses significant risks to public safety and security, ranging from misuse by malicious actors to a potentially irreversible loss of human control. We discuss how these risks arise from current AI training methods.