Une machine peut-elle agir intelligemment ? Peut-elle résoudre n'importe quel problème qu'une personne voudrait résoudre par la réflexion ?
L'intelligence humaine et l'intelligence artificielle sont-elles fondamentalement les mêmes ? Le cerveau humain est-il analogue à un processus de traitement de l'information ?
Une machine peut-elle avoir un esprit ou une conscience similaire à celle de l'humain ? Peut-elle sentir comment les choses sont ?
Ces trois questions reflètent les intérêts divergents des chercheurs en intelligence artificielle, des scientifiques cognitifs et des philosophes. Les réponses philosophiques à ces questions sont en cours d'élaboration. Elles reposent sur les définitions de « l'intelligence » et de la « conscience » et nécessitent de déterminer de quelles « machines » on parle.
Quelques propositions en philosophie de l'intelligence artificielle émergent :
La proposition Dartmouth : « Chaque aspect de l'apprentissage ou de toute autre caractéristique de l'intelligence peut être décrit à un tel niveau de détail qu'une machine pourrait être créée pour le simuler.. »[2].
L'hypothèse du système de symbole physique de Newell et Simon : « Un système de symbole physique dispose des moyens nécessaires et suffisantes pour l'action intelligente générale. »[3].
L'hypothèse de l'intelligence artificielle forte de Searle : « L'ordinateur programmé de manière appropriée avec les bonnes entrées et sorties aurait ainsi un esprit complètement identique à celui des êtres humains. »[4].
Le mécanisme de Hobbes : « En effet la raison, en ce sens, n’est rien d’autre que le calcul (c'est-à-dire l’addition et la soustraction) des suites des noms généraux sur lesquels nous nous sommes mis d’accord pour marquer et signifier nos pensées »[5].
↑Russell et Norvig 2003, p. 947 define the philosophy of AI as consisting of the first two questions, and the additional question of the ethics of artificial intelligence.