La plupart des succès qui valent à l'intelligence artificielle son retentissement médiatique actuel présentent une double caractéristique : certes ils voient des systèmes automatiques réaliser de façon très autonome des tâches que l'on pensait jusque là propres à l'intelligence humaine ou animale, mais ils se limitent généralement à des objectifs non critiques ne portant pas de lourde responsabilité. Des tentatives pour dépasser cette limite posent un certain nombre de questions d'ordre juridique, éthique, et même technique. Et si le développement de l'intelligence artificielle passait désormais plutôt par des systèmes moins autonomes, mais dont on pourrait garantir la fiabilité ?