La définition et les objectifs de l’IA
L’intelligence artificielle est une technologie qui permet de prendre la place des hommes dans de multiples domaines d’activités. Les principaux domaines dans lesquels elle est fréquemment utilisée sont l’apprentissage, les relations commerciales, le raisonnement ou encore tout ce qui touche à la résolution de problèmes divers.
Il existe aujourd’hui une très forte concurrence dans les intelligences artificielles, qui proposent, pour les particuliers et les entreprises, des abonnements payants pour avoir accès à toutes sortes de services.
L’intelligence artificielle est également utilisée dans le monde de la médecine, de la communication, de la politique, liste non exhaustive.
Si ce type de technologie est avant toutes choses utilisées dans une optique d’amélioration, il n’en reste pas moins que des erreurs importantes peuvent être commises.
Les objectifs de l’IA sont d’améliorer la productivité des entreprises, mais aussi des gens d’une manière générale, de prendre des décisions plus précises avec une marge d’erreurs limitée.
Les limites de l’IA
Comme tout ce qui va toucher au domaine des machines d’une manière générale, les risques existent, et l’IA est loin d’être infaillible.
D’une part, il existe des enjeux éthiques dans l’utilisation de l’intelligence artificielle. Dans le domaine de l’éducation par exemple, les risques de tricherie sont devenus bien plus importants ces dernières années. Les professeurs et autres membres du corps académique utilisent désormais des détecteurs afin de vérifier l’authenticité d’un contenu en particulier.
Les informations sur le net peuvent également être erronées, d’où la nécessité de procéder à des vérifications.
Au-delà de la simple information, les enjeux économiques et sociaux peuvent apparaitre comme étant d’autant plus importants, comme, le remplacement d’emplois ou la perte de contrôle sur certaines données.
Les plus grosses bourdes de l’IA en 2024
Les fausses informations et les erreurs les plus énormes se retrouvent dans un grand nombre de secteurs d’activités.
Aux États Unis, un rival de Joe Biden a admis avoir utilisé la voix de Joe Biden pour lancer une communication aux électeurs. Pour ce faire, il a utilisé un algorithme d’une intelligence artificielle. Dans ce message, Joe Biden déconseillait aux électeurs d’aller voter sous prétexte que cela ne « ferait aucune différence ».
Plusieurs sanctions ont été prises à l’encontre de Steve Kramer et les autorités ont renforcé les contrôles. Steve Kramer a admis avoir déjà utilisé le procédé et avoir fait cela exprès pour montrer les dangers de l’IA dans le monde politique.
Toujours au niveau politique, et alors qu’il est sur le point de quitter la maison blanche, Joe Biden décide d’accorder la grâce présidentielle à son fil, Hunter. Les exemples pris pour retracer et illustrer les évènements rencontrent toutefois un problème, puisqu’un post déclare que Woodrow Wilson avait gracié son beau-frère, alors qu’il n’y a aucune trace d’un beau-frère nommé Hunter de Butts.
Cela est encore un exemple de fausses informations qui est pourtant relayée sur le net.
Au niveau commercial, la compagnie Air Canada a été obligé de verser des dommages et intérêts à la suite d’une erreur réalisé par l’intelligence artificielle, le chatbot en relation avec les clients. Un passager a reçu des informations erronées sur le prix de billets, celui-ci a donc finalement été remboursé après avoir déposé une plainte contre la compagnie.
https://www.cio-online.com/actualites/lire-12-catastrophes-celebres-provoquees-par-l-ia-15915.html
Au niveau médical, une intelligence artificielle qui était utilisée dans de nombreux hôpitaux a engendré un ensemble de mauvais diagnostics. En effet, de plus en plus d’hôpitaux et de centres de soins utilisent l’intelligence artificielle pour poser quelques diagnostics sur un certain nombre de maladies. Le problème est que lorsque l’algorithme est mal calibré, cela peut amener à des erreurs graves. En 2024, certains symptômes ressentis par des patients ont été diagnostiqués comme étant graves par l’IA, alors qu’ils étaient des symptômes courants de la grippe. Cela a causé de la panique, et surchargé les urgences.
En effet, depuis la crise du Covid 19, il y a beaucoup plus de visites au sein des urgences, et une erreur dans ce domaine est relativement mal venue.
Toujours en 2024, dans une entreprise internationale, le groupe Amazon l’intelligence artificielle chargée d’aider dans les processus de recrutement a sélectionné plusieurs profils masculins et aucun féminin, rendant plus probantes les inégalités dans le recrutement de cette entreprise.
Dans le domaine de la justice, une intelligence artificielle a mal évalué l’identification des suspects, entraînant une série d’arrestations complètement arbitraires.
https://intelligence-artificielle.com/ia-depeint-innocents-criminels/
Par ailleurs, d’autres erreurs ont pu être répertoriées notamment au niveau informationnel, énormément de sites d’actualités au même moment en 2024 ont délivrés de fausses informations. Cela représente l’un des principaux problèmes de l’intelligence artificielle aujourd’hui, dans tous les cas celle qui est en contact direct avec l’utilisation des particuliers. Nous parlions plus haut des cas liés à l’éducation, les fausses informations sont ensuite retrouvées dans des devoirs d’élèves, des articles de blog et cela entache la réputation des sites ou des universités.
En 2024, plus de 1000 sites différents ont été détectés comme mettant en avant du contenu généré par l’intelligence artificielle, et par conséquent du contenu non authentique. La majorité du temps, on retrouve sur ces sites du contenu qui n’est jamais contrôlé par des humains, contenu qui est donc ensuite repris sur d’autres sites, avec des fausses informations ou encore du contenu ancien qui est déclaré comme récent.
Lorsque les internautes font du copier/ coller sur ce type d’informations ou reformulent des faits qui sont faux, cela se multiplie sur des centaines de contenus, enlevant toutes formes d’authenticité et de véridicité à certains faits, sur des sujets importants.
En Inde, au moment d’élections, des fausses informations ont circulé sur le net, surtout dans un souci de manipulation des internautes. Ainsi, les algorithmes ont prêté parole à des personnalités pourtant décédées. À la suite de cela, la règlementation a du devenir bien plus stricte, obligeant les autorités et le personnel compétent à vérifier les informations avant de les relayer où que ce soit, sur des blogs ou sur les réseaux.
Autre problème, dans le domaine des marchés financiers, des intelligences artificielles erronées ont mis en avant sur le net des rapports financiers qui étaient faux, provoquant de gros troubles dans le secteur de la bourse.
Grâce à cela, il a été mis en avant la fragilité de l’ensemble du système dans un monde pourtant très axé sur les nouvelles technologies. Malgré les innovations, malgré les progrès qui ont été réalisés dans le secteur de la finance, les intelligences artificielles parviennent encore à décrédibiliser l’ensemble.
Dans ces exemples, il est possible de voir que l’intelligence artificielle est un outil qui tend à devenir de plus en plus puissant au fil des ans, puissant, certes, mais qui peut amener de sérieuses déconvenues selon le cas.
L’utilisation de l’intelligence artificielle soulève des questions éthiques, et ce d’autant plus qu’elle peut être utilisée à mauvais escient.
Elle se retrouve sous diverses formes, et les plus grosses bourdes qui ont pu être commises en 2024 sont la preuve qu’un détournement des algorithmes est parfaitement possible.
Pour divulguer de fausses informations, que ce soit sous forme de textes ou d’images, on retrouve l’IA générative notamment, capable comme son nom l’indique de générer toutes formes de contenus.
MyStudies vous informe sur les LLM et les logiciels de détection d'IA
- Les outils de détection de contenu rédigé par une intelligence artificielle générative
- Quel est le meilleur LLM - Gemini, Copilot ou ChatGPT ?
- IA : rétrospective des évolutions des IA en 2024
- L'Intelligence Artificielle et la rédaction d'une commande : pourquoi c'est un no-go
- Quelle est la fiabilité des détecteurs de contenu généré par l'Intelligence Artificielle ?