L’IA, on en est où ?

Alors que l’IA progresse comparativement à l’être humain sur certaines tâches, elle permet d’augmenter des performances en dépassant la rapidité et la précision d’exécution. Cette technologie reste encore véritablement dépendante des humains à bien des égards. 

Par ailleurs, il y a encore des formes d’intelligence humaine qui ne sont pas encore modélisées par l’IA. 

Entre progrès et limites, comment résumer les avancées et les questions posées par l’IA pour mieux comprendre son rôle potentiel dans un avenir relativement proche ?

Optimisation d’applications, nouveaux usages

Avec la puissance de l’intelligence artificielle et sa capacité générative, l’IA permet davantage de performance dans des domaines où elle existe déjà, mais aussi de venir servir d’outil dans d'autres domaines.

En effet, l’intelligence artificielle va permettre de renforcer les systèmes de personalisation, notamment celui des recommandations que l’on utilise déjà dans des applications courantes comme Spotify ou Netflix. Les progrès peuvent également aider à améliorer les systèmes conversationnels comme le chatbot que l’on retrouve aussi bien sur des canaux de communication pour des services publics, que sur des modules de services à la clientèle. C’est donc sur des applications qui ont parfois pu décevoir les utilisateurs, que l’IA vient soulager des attentes qui existaient déjà.

Aussi, on peut imaginer que l’IA générative permet de rédiger, de traduire aussi. C'est ainsi que certains articles “encourageants” proposent déjà des top 10 ou 30 des jobs qui seront éliminés par l’IA. Avant cela, il faut comprendre que l’IA doit rester un outil. Elle permettra à nombre de professionnel.le.s de se concentrer davantage sur des tâches à plus haute valeur ajoutée. Un.e avocat.e pourrait passer plus de temps avec ses client.e.s qu’à rédiger mieux un document.

L’IA permet aussi de renforcer les capacités de diagnostic médical, notamment grâce à quelques dispositifs permettant de mieux détecter des formes d’intérêt sur une échographie par exemple. Dans ces conditions, l’IA reste un outil d’aide à la tâche et surtout d’aide à la décision, plutôt que d’endosser un rôle de décisionnaire.

Alors quelles sont les limites de l’IA et les risques qu’elle comprend ?

Les limites de l’IA 

L’IA est encore limitée à au moins deux niveaux : 

  • Sa limite dans la modélisation de l’intelligence humaine : encore une fois, il reste beaucoup de fonctions cognitives humaines qui ne sont pas encore modélisées par l’IA. L’IA peut mimer qu’elle ressent une émotion en employant un vocabulaire cohérent avec une émotion, mais elle ne ressent pas d’émotion, elle n’a pas de motivation ni d’instinct. Par exemple des compétences comme l’intelligence émotionnelle, ou même la collaboration, toutes deux de plus en plus valorisées dans le monde professionnel, ne sont pas encore remplaçables par un dispositif d’IA.

  • Sa dépendance de l’humain pour amener des données : l’IA est encore créée par l’humain et dépend de l’humain pour amener des données, “nettoyer” ces données en retirant les données qui ne sont pas pertinentes ou issues d’erreurs, mais aussi pour les labelliser, c’est à dire étiqueter les données afin de savoir comment les utiliser.

Ces limites peuvent d’une certaine manière nous conforter quant à la bataille implicite qui est prononcée entre l’IA et l’intelligence humaine. En effet, il semble qu’il y ait à faire.

Cependant, il y a des points majeurs qui méritent d’être considérés pour que les nouvelles technologies d'intelligence artificielle puissent favoriser le développement de l’humanité de manière sécuritaire et harmonieuse.

Les points à considérer

La représentativité des données en IA 

Lorsque la collecte, le nettoyage et la labellisation des données sont mises en place par des humains, alors des biais vont facilement s’intégrer aux algorithmes. Le problème, c’est que ces biais touchent systématiquement toutes les tâches prévues par ces algorithmes qui peuvent même renforcer ces biais. Puisqu’aujourd’hui l’IA est utilisée comme aide à la décision ou parfois comme un outil de tri de dossiers pour des candidatures à l’Université, à un poste de travail ou bien pour donner un premier avis sur un dossier de prêt, on peut imaginer les risques potentiels pour une société équitable.

La protection des données personnelles

Il a déjà été montré que simplement avec les activités sur les réseaux sociaux, ou sur des sites d’achats, des algorithmes étaient capables de prévoir des informations sensibles de leur usagers comme l’orientation sexuelle, le fait d’être enceinte, ou bien les opinions politiques, sans que cela soit partagé par les internautes. Il semblerait juste de bien s’assurer que les données et les prévisions sur des questions sensibles ne sont pas destinées à être révélées ou vendues à des tiers.

La cybersécurité

L’intelligence artificielle permet aussi de nouveaux outils pour la cybercriminalité. Qu’il s’agisse de deep fakes ou d’automatisation des tâches, les groupes de cybercriminels ont aussi devant eux de nouvelles possibilités. Cela appelle donc à plus de formation quant aux nouvelles cyberattaques et leur diversité pour une prévention qui doit se généraliser pour un public le plus large possible, qu’il soit professionnel, dans l’éducation ou même via un service public.

Pour résumer :

L’IA va donc nous faciliter la vie à bien des égards, mais elle demande, comme toute nouvelle technologie, une prévention à la hauteur de sa généralisation et de sa puissance potentielle selon les intentions ou les biais portés par les programmes.

Il s’agit là aussi d’un enjeu de justice sociale pour amener une représentativité nécessaire dans les débats et les grandes décisions pour appréhender cette technologie dans le meilleur intérêt de chacun pour une société équitable et responsable.

Précédent
Précédent

IA et éducation : fléau ou aubaine ?

Suivant
Suivant

C’est quoi l’IA ?