L’IA va t-elle prochainement nous rendre aussi intelligent qu’une courgette ?

Selon la science, c’est possible, mais pas inévitable. En effet, Microsoft et Carnegie Mellon viennent de publier une étude qui confirme ce que beaucoup soupçonnaient : l’IA peut atrophier notre cerveau ! Et là, c’est le drame.

Pour arriver à cette conclusion, les chercheurs ont sondé 319 professionnels et ont révélé que plus la confiance dans l’IA est élevée, moins on applique d’effort cognitif au travail. En effet, en tant qu’humain, nous aimons toujours prendre le chemin qui est le plus économique pour nous en terme d’énergie. Et notre cerveau est ce qui consomme le plus d’énergie dans notre corps.

Ainsi, quand nous demandons à ChatGPT de rédiger un email sans même relire ce qu’il propose, nous faisons ce qui s’appelle du “déchargement cognitif”. Cela veut dire qu’on sous-traite une partie du travail de notre bon vieux cerveau à un outil. C’est pas nouveau, les calculatrices ou les GPS nous permettent déjà de faire ça depuis longtemps.

Mais avec les LLMs, on passe à un stade supérieur car ils nous permettent de sous-traiter la plupart de notre travail intellectuel. Et c’est là où ça devient chiant car on se ramolli du bulbe, notre matière grise se transformant lentement en matière beige pâteuse… Et à moins utiliser notre cerveau et à moins travailler sa plasticité, on finira comme les humains de WALL-E, avachis dans nos fauteuils pendant que les machines feront tout le boulot.

Alors faut-il jeter le bébé IA avec l’eau du bain ? Je ne crois pas, car de simple exécutant, nous pouvons maintenant passer au grade supérieur de superviseur, si nous le désirons. C’est à dire qu’en tant que travailleur, nous conservons notre expertise, mais nous avons également les compétences nécessaires pour superviser une IA. Et cela nous permet de continuer à réfléchir, à créer, à imaginer, à faire preuve d’esprit critique, mais sans forcement s’en remettre bêtement aux IA. Bref, nous devons être comme John Connor qui guide le T-800 et pas l’inverse !

Ce “task stewardship” comme l’appelle l’étude, c’est l’avenir du travail intellectuel. Au lieu d’exécuter bêtement des tâches, on supervise, on guide, et on raffine le travail généré par l’IA.

Maintenant prenons le moteur de recherche Perplexity, que vous connaissez tous, qui est cité dans l’étude. Quand vous l’utilisez, Perplexity vous sert une réponse pré-mâchée sur un plateau d’argent, sans vous obliger à suivre le raisonnement ou à vérifier les sources. C’est comme un prof qui vous donnerait directement la solution plutôt que de vous aider à la trouver. On cherche un truc et hop, on a une réponse pré-digérée qui masque à la fois le raisonnement sous-jacent de l’IA et qui ne stimule en rien la pensée critique de l’internaute. C’est pas jojo.

Maintenant, imaginons plutôt une interface qui nous demanderait de valider ou de modifier certaines parties de la réponse générée, un peu comme un Google Docs collaboratif avec l’IA. Ou encore une IA qui exposerait son raisonnement étape par étape, nous forçant à réfléchir à chaque tournant. Ça, ça stimulerait notre cerveau au lieu de le transformer en purée.

Il faut donc se saisir de l’IA mais en adoptant une posture de collaboration plutôt que de délégation. Et c’est ainsi qu’on arrivera (pour certains d’entre nous seulement, j’en ai bien conscience ^^) à sauver notre pauvre petit cervelet tout mou. Cela passe par des techniques de prompting qui encouragent la réflexion et la collaboration, par la mise en place d’habitudes pour maintenir sa pensée critique et un usage de l’IA pour “vraiment” apprendre plutôt que pour remplacer l’apprentissage.

Voici quelques exemples concrets de prompts qui stimuleraient une pensée critique :

  • Au lieu de “Écris-moi un article sur XYZ”, essayez “Donne-moi 3 perspectives différentes sur XYZ et je choisirai celle que je veux approfondir
  • Au lieu de “Résume ce texte”, essayez “Identifie les 3 arguments principaux de ce texte et propose une critique pour chacun
  • Ou encore “Guide-moi étape par étape pour résoudre ce problème, avec des points de décision où je dois faire un choix” plutôt que “Hey ChatGPT, donne-moi la réponse à ce problème !
  • Demander par exemple “Explique ce que fait chaque partie de ce code et suggère 2 approches alternatives” au lieu de “Est-ce que ce code est correct ?

Et l’étude montre que ça marche !

Au Nigeria, une expérimentation avec des tuteurs IA a permis aux étudiants de réaliser deux ans de progrès d’apprentissage en seulement 6 semaines. Mais attention, c’était toujours les profs qui guidaient les prompts et fournissaient le contexte, et pas l’inverse.

Car comme dans Dune, où la peur tue l’esprit, ici c’est la paresse qui tue le cerveau… Ce serait quand même con qu’on finissent tous avec le niveau intellectuel de Donald Trump quand même…

manu23 Donald Trump new york times illustration 5da85da7 384a 4489 a98f 754131bf4241

Bref, vous l’aurez compris, l’IA comme outil d’augmentation cognitive dépend de notre façon de l’utiliser. A voir maintenant si les développeurs et les sociétés qui créent les IA de demain sauront adapter leurs interfaces utilisateurs pour encourager cela ou si on deviendra tous des courgettes comme je le disais en intro. (spoiler : on deviendra des courgettes).

Source


Source link

Categorized in: