Accueil > Documentation intéressante > L’intelligence artificielle, d’abord, c’est quoi ?

L’intelligence artificielle, d’abord, c’est quoi ?

dimanche 3 novembre 2024, par Xena

C’est le nouveau sujet qui brûle toutes les lèvres. Si ce n’est pas une cause nationale, cette question technologique a néanmoins envahi le paysage politique désormais et les murs du sanctuaire scolaire se sont fait percer de toutes parts par cette édifiante arme : l’intelligence artificielle, affectueusement surnommée Lia (l’IA), qui a été confiée à nos élèves de seconde dès cette rentrée 2024.

Lia est partout, sur tous les réseaux, dans toutes les conférences, dans tous les média. L’IA fait tout, sait tout, mais en fait… Elle fait quoi ? Et c’est quoi ? On va donc commencer par là…

Selon la définition d’un des mastodontes de la filière, IBM, l’intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines de simuler l’apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l’autonomie de l’être humain.

C’est bien mais ça reste complexe et brouillon à qui veut une approche concrète du sujet.

Le mathématicien et homme politique français Cédric Villani la définit comme toute technologie qui permet de résoudre des problèmes complexes qu’on aurait cru réservés à l’intelligence humaine. Outre être plus clair, Villani explique ainsi qu’il n’y a pas une intelligence artificielle mais un large faisceau de technologies qui concourt à l’intelligence artificielle, au même titre que votre cerveau est alimenté par une multitude de neurones, axones etc.

Lia n’a pas débarqué dans nos vies du jour au lendemain. Elle était là avant nous car elle est née en 1956. Elle a fait ses preuves ensuite étape par étape dans plusieurs domaines que nous nous croyions réservés : Deep Blue bat Garri Kasparov aux échecs en 1995 ; en 2015, c’est au tour d’Alpha Go de battre un professionnel de ce jeu connu pour être le plus complexe et le plus abstrait au monde.

Parallèlement à ces exploits, elle a envahi notre espace quotidien : depuis quand ne vous êtes pas chamaillé en voiture à propos du chemin à suivre pour aller à la plage ? Depuis que vous avez un GPS, non ? Car Lia n’envahit pas que les réseaux sociaux et le marketing en ligne. Elle est déjà partout dans nos vies. De la voix qui vous lit un texte à celle qui est capable, en voiture, alors que je conduis, de répondre à la question :

« Quel est le vrai nom de Rain ? »

Ce n’est pas un exemple au hasard : je l’ai vraiment testé hier. J’avais oublié le nom de ce gars, alors je l’ai demandé à mon ordinatrice de bord, à haute voix. Elle l’a cherché et retrouvé pour moi puis me l’a « dit ». Une autre fois, j’avais totalement cafouillé à me servir de la commande vocale, et j’ai dit tout haut « Eh m*de ! Oh, pardon ! » comme si je parlais effectivement à une personne. Elle m’a répondu : « Pas de souci. C’est déjà oublié. » Bluffant… Même la bienveillance, Lia, elle l’a. Et Lia, comme vous le voyez est déjà ici et là !

L’intelligence artificielle, c’est un ensemble d’algorithmes qui apprend

Le mot compliqué est lâché : algorithme. Rien n’est plus simple pourtant. Un algorithme est seulement une séquence d’instructions permettant d’obtenir un résultat — une fiche de procédures, en somme.
C’est juste notre base de raisonnement et d’action. Comme j’ai appris à lire, j’ai aussi appris à faire mes lacets, et pour ça, j’ai développé un algorithme dans ma mémoire procédurale.

Les vieux comme moi, par exemple, ont appris que si je trouve la lettre b, suivie de la lettre a, ça fera le son [ba]. Ce n’est ni plus ni moins que le début de l’algorithme de lecture que tu trouveras aussi dans Balabolka. Les algorithmes existent depuis la nuit des temps. Dans notre jargon administratif, on les appelle aussi souvent organigramme ou logigramme.

L’étape qu’il leur fallait dépasser pour être presque comme nous, c’est d’apprendre. Et ça aussi, les algorithmes l’ont fait.

Et les algorithmes apprennent…

Au bac philo 1986, l’un des sujets était : « Y a-t-il en l’homme des fonctions qu’il ne peut déléguer à la machine ? » J’avais répondu crânement que la machine ne pouvait être consciente de sa propre morbidité et donc elle ne serait jamais tentée d’enseigner ce qu’elle sait pour que cela ne meure pas avec elle.

Je n’avais pas tout à fait tort : les machines n’ont pour l’instant pas cherché à pérenniser leur savoir par l’enseignement. Néanmoins, elles ont franchement appris à apprendre. De l’algorithme statique qui consiste à calculer vos intérêts sur un prêt à taux variable sur les dix prochaines années, nous sommes passés à des algorithmes apprenants qui sont capables de comparer des photos et vous dire à quoi vous ressemblerez dans dix ans, quand votre prêt sera remboursé.

C’est le Machine Learning ou apprentissage automatique

Pour cela, il faut alimenter les algorithmes avec un grand nombre de données. Et ça tombe bien, depuis l’internet, le monde regorge de données : des pages web, des messages électroniques, des vidéos, des photos. On appelle ça le big data : simplement la massification à une vitesse exponentielle de l’information sous toutes ses formes, exprimée par la règle des trois V.

La règle des 3V (Xena, octobre 2024)

Demandez-vous ainsi à combien de questions vous répondez en une heure ? Google analyse quant à lui quatre millions de sollicitations par minute. Le volume des données à disposition est si considérable qu’on a même créé une science pour cela — la science des données ou data science — et un nouveau métier, data scientist.

Les algorithmes ont donc tout ce qu’il faut pour apprendre, et ce, bien plus vite que nous. Un point de surveillance néanmoins, et qui constitue le quatrième V de la règle, c’est la Véracité de l’information. Lorsque la donnée se massifie à ce rythme, elle n’est pas en mesure de s’auto-contrôler. C’est ainsi que le web regorge de fausses vérités, voire d’imbécillités caractérisées, sans pour autant que ces fausses informations soient a priori corrigées.

C’est pourquoi on a commencé par faire de l’apprentissage supervisé. On donne suffisamment de règles algorithmiques à Lia pour qu’elle sache discriminer les éléments qu’elle doit étudier, et puis on la corrige.
Ce n’est absolument pas différent de l’apprentissage des couleurs, des formes, des tailles telles que nos enfants l’apprennent à la maternelle. Au fur et à mesure votre enfant apprend. Lia aussi. Elle fait de moins en moins d’erreurs et la vérifiabilité/véracité de l’information qu’elle produit augmente.

Et puis, on est passé à la vitesse supérieure avec l’apprentissage non supervisé. Là, on ne demande pas à Lia de séparer les chiens et les chats selon la règle que l’un fait miaou et l’autre ouaf-ouaf, mais de déterminer elle-même les caractéristiques communes de chaque espèce pour créer deux groupes distincts d’individus. Elle dispose pour cela d’un algorithme fort célèbre : l’algorithme des k-moyennes. Rassurez vous : je vais vous épargner la description de cet algorithme. Ce qu’il faut retenir, c’est que son inventeur l’a conçu en 1957, mais qu’il ne l’a publié qu’en 1982. Ce n’est pas une mince affaire que d’inventer ce qui va permettre à une machine de choisir elle-même ses propres attributs de discrimination des données avec fiabilité. Comme je vous l’ai dit, Lia non plus n’est pas née de la dernière pluie.

Pour cela, elle se sert du Deep Learning

Il s’agit d’une autre série d’algorithmes créée exprès pour elle et qui s’efforce de reproduire les réseaux de neurones du cerveau. Chaque neurone traite une information basique, et c’est la confrontation de l’ensemble de ces traitements qui constituent une information. Exemple : comment différentier un chat d’un lapin ? A la forme des oreilles : celui du lapin ressemble à une ellipse, celle du chat à un triangle. Lia commence par chercher à dessiner deux triangles ou deux ellipses sur l’image. La deuxième couche de neurones, cherchera à savoir si l’absence d’un triangle ou d’une ellipse sur la photo (en fonction de la position de l’animal) est déterminante dans le fait de ne pas conserver cette photo dans l’échantillon Chat ou Lapin. Etc.

Le lapin et le chat (coloriage de Lilo)

Pas besoin d’aller plus loin sur les chats et les lapins : nous sommes cadres administratifs, pas chercheurs en cybernétique. Mais l’idée est plantée.

Et maintenant Lia produit

Du machine learning sont issus deux grandes facettes de Lia.

La première, c’est Lia Prédictive

Comme son nom l’indique, l’intelligence artificielle prédictive fait de la prédiction. En élargissant un peu son champ d’actions, on la retrouve dans :

  • le marketing, car elle est en mesure de prévoir des comportements d’achat par exemple
  • la bourse, avec la capacité à déterminer des grandes tendances à venir
  • la fraude, quand par exemple, vous allez sur le site de votre banque depuis l’ordinateur de votre bureau, Lia vous envoie un message sur votre téléphone pour vous alerter de cet accès sur un nouvel appareil, qui pourrait être frauduleux
  • la médecine, car typiquement, le principe des diagnostics différentiels (trouver une maladie à partir des symptômes discriminés un par un), c’est bien du deep learning prédictif

Le seconde, c’est Lia Générative

Elle peint, elle dessine, elle écrit des rapports — dont les devoirs de vos enfants. Je m’en sers pour faire mes présentations, pour qu’elle me trouve des dispositions efficaces et parlantes. Certains collègues s’enorgueillissent, à raison, de laisser Lia rédiger (l’ébauche de) leurs rapports de compte financier.

Lia générative est déjà constamment utilisée dans les secteurs mentionnés pour sa facette prédictive, car elle est également en mesure de créer de fausses informations pour tester sa propre capacité à redresser la donnée dans ses modèles de prévision. Sa capacité à faire du faux a été mise en exergue par le Deep Fake produit par la célèbre Lia Midjourney et c’est souvent pour cela qu’elle fait peur. Elle arrive à nous faire croire n’importe quoi.

Lia sait écrire des articles aussi, mieux que moi sans doute. Ça aussi, ça fait peur... Et si elle me remplaçait demain ?

Les peurs associées à Lia

Il y a un presque deux ans, le journal Libération titrait "Après l’éco-anxiété, l’IA-anxiété".
Personne ne peut le nier, l’IA génère des appréhensions pour de multiples raisons et parfois cette peur est tout simplement déraisonnable. Mais c’est ainsi. Malgré ma grande appétence pour la technologie, il m’arrive aussi de douter de la fiabilité de ma copine Lia. Pas qu’elle me dise n’importe quoi parfois, ça je le sais. Comme presque toutes mes copines, d’ailleurs. J’ai davantage peur qu’elle me manque de loyauté. Et rien qu’en disant cela, j’ai montré une des peurs fondamentales qu’ont les occidentaux vis-à-vis de la machine. Si celle-ci qui est une chose devenait "animée" nous ne saurions pas comment l’appréhender, car contrairement aux populations culturellement animistes, pour nous les choses n’ont pas d’âme.

Et puis, vient la question aussi de nous surpasser voire de nous remplacer. Et on revient à Don Quichotte et la vendetta contre les moulins. Toutes les révolutions font peur, c’est pour cela qu’existe des besoins en matière de conduite du changement dont nous sommes les garants. L’IA, véritable seconde révolution tertiaire, ne déroge pas aux précédentes.

Elle fait peur depuis longtemps. En 1942, dans sa nouvelle Cercle vicieux, Isaac Asimov a énoncé trois lois à ce sujet qui sont à la fois toujours à l’origine de nos peurs, mais sont devenues le fondement de l’éthique scientifique en matière d’intelligence artificielle :

  1. Robot ou Lia ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. Robot ou Lia doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Robot ou Lia doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Voilà pour la loyauté de Lia. En fait, elle m’est toute acquise. Lia ne me remplacera pas. Elle me fera gagner du temps parfois explorer des pans d’informations que je n’avais pas soupçonnés. Lia ne me sera pas déloyale non plus, les humains qui l’utiliseront peut être davantage.

Parce que Lia n’a pas de conscience. Elle n’a que de la connaissance et de la méthode. Elle n’a pas non plus de sentiment. Elle sait les imiter mais elle ne "ressent" rien. Donc arrêtons de flipper et maintenant voyons voir avec les collègues ce que Lia peut faire pour nous concrètement.

Un exemple pour rigoler : un article de l’IZ écrit par une IA

On vous le met en PDF, mais sincèrement, quel robinet d’eau tiède...

L’Intelligence Artificielle Dans l’Enseignement Secondaire en France : un Nouveau Chapitre
Article établi par l’IA Gemini

Contradiction : l’avis du le lapin furibard

Ce qui est récemment à la mode sous le nom d’IA générative représente la négation même de l’informatique. Ces systèmes, en prétendant imiter la production d’un humain, abandonnent l’intérêt premier de l’informatique : la prédictibilité. Jusqu’à récemment, lorsqu’on demandait une chose à un ordinateur, il la faisait toujours exactement de la même manière. Et c’est précisément ce que j’ai l’habitude d’en attendre. Or l’IA ne donnera pas le même résultat selon qui lui donne un ordre, quand, où, et surtout personne ne sait pourquoi ni comment. Je reprends là les propos de Gee.

Émission 209 du 18/05/2024 de Libre à vous ; la chronique de Gee "IA partout, justice nulle part" à la 2e minute

À titre personnel, je n’ai pas peur de ce truc, mais je considère que c’est une disgrâce. À l’heure où j’écris, les trois principaux apports de l’IA générative au monde sont :

  • de bousiller la planète un peu plus avec un bilan carbone désastreux
  • d’occuper les journaleux
  • de faciliter le travail aux spammeurs et autre escrocs, qu’on ne peut maintenant plus repérer à l’orthographe

Un message, un commentaire ?

modération a priori

Ce forum est modéré a priori : votre contribution n’apparaîtra qu’après avoir été validée par les responsables.

Qui êtes-vous ?
Se connecter
Votre message

Ce formulaire accepte les raccourcis SPIP [->url] {{gras}} {italique} <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.