L'imprecision du vocabulaire et les fantasmes entretenus par les medias et les promotions commerciales rendent incomprehensibles les nombreuses publications sur le sujet.
Déjà, pour clarifier, on pourrait bannir de manière définitive le terme "intelligence artificielle" pour s'en tenir à celui de "intelligence simulée" car c'est bien ça la réalité. Le programme qui semble vous fournir une réponse cohérente n'a pas "compris" la question posée. Il se contente d'aligner une séquence des mots les plus probables d'après les textes qui lui ont été fournis pour l'entrainer.
Mais on doit garder à l'esprit le test de Turing : que se passe-t-il quand on ne peut plus faire la différence entre la réalité et la simulation ? Mais un blaireau (ou un raciste) simulé reste un blaireau même numérisé. Et aucune magie ne le transforme en génie bienveillant et omniscient. Donc nos systémes "intelligents", si on les entraine sur les données ouvertes disponibles en masse sur l'internet, ne feront que refleter la bétise ambiante, le manque de discernement et les préjugés majoritaires. Comment enseigner l'éthique à ces programmes sans agraver encore les biais idéologiques ?
Il faut garder en mémoire que pour les modèles de "deep learning" la pertinence de la réponse dépend de celle des données d'apprentissage et en reproduit tous les biais. Ces processus n'analysent pas de manière critique les informations qu'on leur fournit et écartent en général les réponses plus pertinentes mais minoritaires. Et qui plus est, ils ne font aucune difference entre l'exposé de faits ou d'opinions.
Ensuite, il faudrait faire une différence nette entre ce qui ressort purement d'analyses statiques et de la détection de corrélations dans de grandes masses de données et ce qui ressort d'algorithmes d'aide à la décision, qui utilisent la même approche mais dans un but limité et prédéterminé, avec des jeux de données d'apprentissage spécialisés et triés.
Malgré tout le battage médiatique actuel (orchestré à des fins de promotion commerciale ?) ces outils, qui peuvent fournir une aide précieuse pour analyser des images médicales, compiler des précédents juridiques ou détecter des dangers naissants de santé publique, peuvent aussi devenir de redoutables outils de propagande et d'endoctrinement si on les utilise par exemple pour lâcher des "trolls" automatisés en masse sur les réseaux sociaux pendant une campagne électorale.
Alors oui, assez de fantasmes et un peu de rationalité et de précision dans la terminologie et les analyses.
Laissez votre commentaire