1. Introduction

Pourquoi ce TPA ? Quels sont les objectifs et les grandes questions ?

Les intelligences artificielles ne sont plus seulement un sujet de science-fiction. Qu’on le veuille ou non, elles sont un peu partout autour de nous. Moteurs de recherche, réseaux sociaux, applications de traduction, outils de bureautique, « assistants » intégrés dans les logiciels, et j’en passe. Le mot « IA » est devenu un buzzword. Dès qu’on le met quelque part, ça fait réagir. Mais derrière ces outils « magiques », il y a des choix techniques, des règles de modération et un impact écologique bien réel.

Avec ce TPA, « Comprendre l’IA avec l’IA », j’ai voulu faire autre chose qu’un simple dossier à lire. Le titre vient du fait que, aujourd’hui, dans quasiment tout ce que nous faisons, il y a une forme d’IA quelque part, parfois de façon visible, parfois en arrière-plan sans qu’on s’en rende compte. Moi-même, j’ai utilisé des outils d’IA pendant tout le projet. Par exemple pour chercher des sources, pour m’aider à reformuler certains passages, pour coder ce site web, et pour préparer les futures démos. Je me sers de l’IA pour mieux comprendre comment elle fonctionne, ce qu’elle permet, mais aussi ses limites. Ce site web sert donc de laboratoire interactif.

  • voir comment la conception et l’entraînement d’un modèle changent la qualité des réponses ;
  • comparer différents niveaux de sécurité / modération et leurs effets concrets sur ce que l’IA accepte ou refuse de dire ;
  • découvrir que chaque interaction a aussi un coût énergétique, même s’il reste invisible pour l’utilisateur.

Mon objectif n’est pas de devenir expert en IA, mais de rendre visibles les compromis. Jusqu’où on peut pousser la qualité des réponses, comment protéger les utilisateurs sans tout censurer, et comment éviter que l’IA devienne un gouffre énergétique. Tout ça, je le travaille justement en utilisant des outils d’IA, mais en gardant du recul et en retravaillant les textes pour qu’ils restent les miens.

2. Méthodologie

Comment j’ai cherché mes infos et comment j’ai construit ce TPA.

2.1 Démarche générale

Au début de ce TPA, ma manière de travailler était trop centrée sur l’IA. Je l’utilisais presque pour tout : chercher, résumer, reformuler, corriger, parfois même trop tôt dans le processus. Je me suis assez vite rendu compte que ce n’était pas une bonne méthode, parce qu’à force de trop déléguer, je perdais une partie du recul et de la réflexion personnelle que je devais garder dans un travail comme celui-là.

Un premier déclic est venu quand j’ai vu une vidéo dans laquelle, pendant une sponsorisation pour Mammouth AI, le créateur expliquait sa manière d’utiliser l’IA.1 Ce que j’ai trouvé intéressant, c’est l’idée de ne pas utiliser une seule IA pour tout faire, mais de créer plusieurs assistants spécialisés, chacun avec un rôle précis : par exemple une IA pour chercher des sources, une autre pour reformuler, une autre pour corriger ou aider à structurer un texte.

Dans un second temps, la vidéo de Micode m’a encore plus poussé à remettre ma méthode en question.2 Elle m’a surtout fait réfléchir au risque de devenir trop dépendant de l’IA et de lui laisser faire une partie du travail intellectuel à ma place. C’est vraiment à partir de là que j’ai changé ma manière de travailler.

2.2 Choix et fiabilité des sources

Maintenant, j’utilise presque toujours l’IA dans mon travail, mais de manière plus organisée. Au lieu de lui demander de tout faire, je lui donne un rôle précis selon l’étape où j’en suis.

Par exemple, je peux utiliser une IA spécialisée dans la recherche de sources. Quand elle me donne une information, je lui demande aussi des sources précises et vérifiables. Ensuite, je vais moi-même ouvrir ces liens, lire les contenus et vérifier ce qu’ils valent.

À chaque fois, j’essaie de vérifier au minimum :

  • qui a écrit le texte (auteur ou organisation) ;
  • la date de publication ;
  • le type de site (institution publique, université, média reconnu, documentation officielle, etc.) ;

Après cette étape, j’écris d’abord un texte moi-même, avec mes mots, souvent dans mes notes. J’essaie d’avoir une vraie base personnelle, même si elle n’est pas parfaite. Ensuite seulement, je redonne ce texte à une autre IA pour qu’elle m’aide à l’améliorer : corriger les fautes, rendre certaines phrases plus claires, proposer des reformulations plus propres ou me suggérer une meilleure structure.

Au final, l’IA ne fait donc plus le travail à ma place. Elle m’aide à chaque étape, mais avec des rôles séparés : recherche, correction, reformulation, structure. Cette méthode me convient beaucoup mieux, parce qu’elle me permet de garder mes idées, mon style d’écriture et mon esprit critique, tout en profitant des points forts de l’IA.

Toutes les références que j’ai retenues sont listées dans la bibliographie, avec une présentation qui suit les consignes de l’école.

2.3 Rôle du site web

Ce site web n’est pas juste un “emballage” pour le TPA. C’est vraiment une partie du projet. Je l’ai conçu comme un support pédagogique pour des personnes qui ne sont pas forcément dans l’informatique.

Concrètement, il sert à :

  • présenter une vue d’ensemble de l’IA en trois axes (technologique, politique et écologique) avec des chapitres clairs ;
  • rendre ces thèmes plus concrets grâce à des démos interactives, par exemple un mini-simulateur d’entraînement d'IA, des profils de modération ou encore un compteur d’énergie.

2.4 Interview et retour d’expérience

Pour ne pas rester uniquement dans ma vision d’élève, j’ai aussi prévu une interview avec une personne confrontée à l’IA dans un cadre professionnel.

Je ferai ensuite un bilan personnel sur ce TPA : ce que j’ai appris, ce qui m’a surpris, et surtout comment ma manière de travailler a évolué pendant le projet. Ce bilan complet se trouve dans la section Bilan personnel.

2.5 Notes de bas de page et sources de la méthodologie

  1. VIDÉO YOUTUBE consultée pour le passage sponsorisé lié à Mammouth AI, https://youtu.be/9P68VpuwDg8?si=0ShH-iKPz9EsxJSe (consulté le 17.03.2026).
  2. MICODE / UNDERSCORE_, « L’IA va-t-elle nous rendre idiots ? — documentaire Micode », Underscore_, 26 janv. 2026, https://shows.acast.com/micode-underscore/episodes/697089e92651ff0ee600fd2a (consulté le 17.03.2026).

3. Chapitre 1 — Axe technologique

Question 1 : comment des choix d’entraînement et de conception modifient-ils le comportement et la qualité des réponses d’une IA ?

3.1 Un peu d’histoire

Quand on parle d’intelligence artificielle aujourd’hui, on pense souvent à des outils comme ChatGPT ou des générateurs d’images. Mais l’idée de « machine intelligente » est beaucoup plus ancienne : dès les années 1950, des chercheurs se posent déjà la question « une machine peut-elle penser ? ». 1

Au début, l’IA est surtout symbolique : des règles écrites à la main (« si telle condition est vraie, alors fais ça »). Ça fonctionne pour des problèmes bien cadrés, mais on est très loin d’un chat qui répond à tout comme aujourd’hui.

Le gros changement arrive quand on passe à l’apprentissage automatique. Au lieu de tout programmer à la main, on donne au modèle énormément d’exemples (textes, images, etc.) et il apprend à repérer des motifs tout seul. Ensuite viennent le deep learning (méthode d’apprentissage automatique avancée, basée sur des réseaux de neurones, c’est-à-dire des systèmes inspirés du fonctionnement du cerveau) et, en 2017, les transformers (type de modèle d’IA pour traiter le texte), qui sont la base des modèles de langage modernes.2 Pour illustrer mes propos, voici une frise chronologique qui montre les grandes étapes de l’IA.

Frise chronologique présentant quelques jalons de l’histoire de l’IA, de Turing à AlphaGo.
Frise chronologique de quelques grandes étapes de l’IA (Turing, Eliza, Deep Blue, Siri, AlphaGo), utilisée comme repère visuel dans mon TPA (source : Baumeister6).

Dans mon TPA, quand je parle d’IA, je parle surtout de ces modèles de langage. Pour faire simple, ils prédisent mot par mot (ou morceau de mot par morceau de mot) la suite la plus probable d’un texte, en fonction de ce qu’on leur a donné comme consigne. Derrière cette idée assez simple, il y a une grosse machine technique qu’on va voir dans la partie suivante.

3.2 Comment on entraîne une IA (version simplifiée)

Pour qu’une IA comme ChatGPT fonctionne, il ne suffit pas d’appuyer sur un bouton magique. Il y a une vraie « recette » technique derrière. Je résume ici les grandes étapes, sans rentrer dans les maths.

1) Récupérer des données

D’abord, il faut beaucoup de données. Pour un modèle de langage, ce sont surtout des textes : pages web, livres, documentations, forums, etc. On nettoie ces données (enlever les doublons, le spam, certains contenus) pour obtenir un gros corpus (grand ensemble de textes ou de données) utilisable.

2) Transformer les mots en nombres

L’ordinateur ne comprend pas directement les mots. On transforme donc le texte en une suite de nombres. On découpe le texte en petits morceaux (appelés « tokens », c’est-à-dire de petits morceaux de texte traités par l’IA) et chaque token est représenté par un numéro. Tout l’entraînement se fait ensuite sur ces nombres.

3) Entraîner le modèle

Là, on arrive au cœur du processus. L’idée est la suivante : on montre au modèle un bout de phrase, il essaie de deviner la suite, et on lui dit à quel point il s’est trompé. En fonction de ça, il ajuste ses paramètres (ce sont des nombres internes, autrement dit les réglages internes du modèle, qui déterminent la façon dont il transforme l’entrée en sortie).

On répète cette boucle des millions de fois sur des tonnes de textes. Petit à petit, le modèle s’améliore et devient capable de produire des réponses cohérentes. Tout ça demande énormément de calculs et donc beaucoup d’électricité.3

4) Pourquoi on parle tout le temps de GPU ?

Pour faire tourner ce type de modèle, on utilise surtout des GPU. À la base, ce sont des cartes graphiques pour les jeux vidéo, mais elles sont très bonnes pour faire plein de petits calculs en parallèle. C’est exactement ce qu’il faut pour l’entraînement de grands modèles d’IA.

Dans un data center, il peut y avoir des rangées entières de serveurs remplis de GPU qui calculent jour et nuit. La demande est tellement forte que certains fabricants donnent la priorité aux gros clients (centres de données, grandes entreprises) et beaucoup moins au grand public, ce qui crée des tensions sur le marché du matériel.4

5) Entraînement vs utilisation au quotidien

On peut distinguer deux phases :

  • l’entraînement : très coûteux en temps, en électricité et en matériel ; c’est là qu’on ajuste tous les paramètres du modèle ;
  • l’utilisation (quand je pose une question dans un chat) : beaucoup moins chère qu’un entraînement complet, mais répétée des milliards de fois par jour, donc l’impact global reste important.
Atelier guidé : « Construis ton IA pas à pas »

Réponds aux questions dans l’ordre. À chaque étape, une réponse pré-écrite explique ce que tes choix changent.

Chargement de l’atelier…

3.3 Aujourd’hui en 2025 — les outils qu’on utilise

En 2025, l’IA n’est plus juste un sujet de labo. On la retrouve un peu partout : assistants de texte comme ChatGPT, générateurs d’images, systèmes de recommandation de vidéos, correcteurs orthographiques améliorés, outils de résumé, etc. Une étude sur les usages réels montre que beaucoup de gens s’en servent surtout pour rédiger, résumer, brainstormer et gagner du temps dans leur travail.5

Comme élève en informatique, je le vois très concrètement avec des outils comme GitHub Copilot. Il s’intègre dans l’éditeur de code et propose des complétions ou des fonctions entières à partir de quelques lignes ou d’un commentaire. Je tape moins de code « à la main », mais je dois lire, comprendre et vérifier ce que l’IA me propose. La manière de coder change complètement.

L’IA débarque aussi dans des domaines plus « classiques ». Par exemple, dans le secteur de la construction, on commence à l’utiliser pour optimiser des plans, surveiller des chantiers ou détecter des problèmes potentiels plus tôt, ce qui change peu à peu la manière de travailler sur le terrain.6

Pour ce TPA, j’utilise moi-même l’IA comme outil de travail. Par exemple pour m’aider à reformuler certains passages, à structurer mes idées ou à vérifier des explications techniques. Mais au final, je dois toujours relire, corriger, et adapter pour que le texte me ressemble et reste compréhensible pour quelqu’un qui n’est pas forcément du milieu de l'informatique.

3.4 Limites et risques techniques

Même si les résultats sont parfois impressionnants, les IA ont des limites techniques importantes. Ce ne sont pas des humains dans une boîte, mais des modèles qui complètent du texte en fonction de ce qu’ils ont vu pendant l’entraînement.

  • Erreurs et hallucinations (réponses inventées mais plausibles) : le modèle peut inventer des faits ou donner des réponses fausses avec beaucoup de confiance. Dans certains domaines sensibles (comme la santé mentale), on a déjà vu des exemples où des jeunes suivent des conseils d’IA de manière très sérieuse, ce qui peut être dangereux voire dramatique.7
  • Bugs et usages illégaux : du code généré automatiquement peut contenir des failles de sécurité, des erreurs logiques ou réutiliser du code protégé. Si on ne relit pas, on peut se retrouver avec des applications instables ou qui posent des problèmes juridiques.
  • Consommation d’électricité : l’infrastructure nécessaire (entraînement + usage au quotidien) consomme beaucoup d’énergie et a un impact réel sur le climat, même si on ne le voit pas quand on tape une simple question dans un chat.3
  • Biais (tendances à produire des réponses orientées ou injustes) et influence de la culture : si les données d’entraînement sont biaisées, les réponses le seront aussi. Des autorités comme la CNIL rappellent que certains algorithmes peuvent discriminer sans que ce soit volontaire, juste à cause des données ou du design du système.8

Au final, les choix techniques ne sont jamais neutres : ils dépendent de priorités (performance, coût, sécurité, image de marque, etc.). Comme l’IA est utilisée par des millions de personnes, ces choix ont des effets très concrets sur ce que le modèle accepte ou refuse de dire.

C’est ce qui mène directement au chapitre suivant : qui décide de ce qui est autorisé ou interdit ? Comment se construisent les règles de modération, et qu’est-ce que ça change dans les réponses qu’on reçoit ? C’est le cœur de l’axe politique / légal.

3.5 Notes de bas de page et sources du chapitre 1

  1. THAT’S AI, « L’histoire de l’IA », That’s AI, s.d., https://www.thats-ai.org/fr-CH/units/l-histoire-de-l-ia (consulté le 10.12.2025).
  2. VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; et al., « Attention Is All You Need », Advances in Neural Information Processing Systems, 30, 2017, https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf (consulté le 10.12.2025).
  3. ZEWE, Adam, « Explained: Generative AI’s environmental impact », MIT News, 17 janv. 2025, https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117 (consulté le 10.12.2025) ; STRUBELL, Emma; GANESH, Ananya; MCCALLUM, Andrew, « Energy and Policy Considerations for Deep Learning in NLP », Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019, https://aclanthology.org/P19-1355/ (consulté le 10.12.2025). ↑1 ↑2
  4. DIGITEC, « Le boom de l’IA entraîne une pénurie de mémoire et une hausse des prix », Digitec, 17 nov. 2025, https://www.digitec.ch/fr/page/le-boom-de-lia-entraine-une-penurie-de-memoire-et-une-hausse-des-prix-40480 (consulté le 17.03.2026) ; REUTERS, « The AI frenzy is driving a memory chip supply crisis », Reuters, 2 déc. 2025, https://www.reuters.com/world/china/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03/ (consulté le 17.03.2026).
  5. ZAO-SANDERS, Marc, « How People Are Really Using Gen AI in 2025 », Harvard Business Review, avril 2025, https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025 (consulté le 10.12.2025).
  6. BAUMEISTER, « L’intelligence artificielle dans la construction », Baumeister, s.d., https://baumeister.swiss/fr/lintelligence-artificielle-dans-la-construction/ (consulté le 10.12.2025).
  7. MCBAIN, Ryan K.; BOZICK, Robert; DILIBERTI, Melissa; et al., « Use of Generative AI for Mental Health Advice Among US Adolescents and Young Adults », JAMA Network Open, 8(11), 2025, https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2841067 (consulté le 10.12.2025).
  8. COMMISSION NATIONALE DE L’INFORMATIQUE ET DES LIBERTÉS ; DÉFENSEUR DES DROITS, « Algorithmes et discriminations : le Défenseur des droits et la CNIL appellent à une mobilisation », Site de la CNIL, 2020, https://www.cnil.fr/fr/algorithmes-et-discriminations-le-defenseur-des-droits-avec-la-cnil-appelle-une-mobilisation (consulté le 10.12.2025).

4. Chapitre 2 — Axe politique / légal

Question 2 : qui décide ce que peut répondre une IA, et comment des politiques de modération différentes transforment-elles les réponses ?

Introduction — Une IA ne répond pas librement

Dans le chapitre 1, on a vu que des choix techniques (données, entraînement, taille du modèle, etc.) peuvent déjà changer la qualité d’une IA. Mais il existe un autre facteur, souvent invisible : les règles autour du modèle.

Quand on discute avec une IA, on peut avoir l’impression qu’elle « répond librement ». En réalité, une réponse est toujours influencée par plusieurs couches : ce que le modèle a appris pendant l’entraînement, mais aussi des règles (sécurité, légalité, politique de la plateforme, règles d’entreprise) qui peuvent filtrer, reformuler ou bloquer certains contenus.

C’est pour ça que deux IA différentes (ou la même IA avec des réglages différents) peuvent répondre de manière très différente à une question identique. Dans ce chapitre, je cherche donc à comprendre : qui décide des limites, et ce que cela change concrètement pour l’utilisateur.

4.1 L’égalité : biais, censure, justice

Si les données d’entraînement contiennent des biais, le modèle va naturellement reproduire ces biais. La modération essaie de corriger une partie du problème, mais elle peut aussi être perçue comme une forme de censure, selon le contexte.

La question de l’égalité est centrale : certaines personnes ou certains sujets sont-ils traités différemment ? Les règles sont-elles les mêmes partout ? Des autorités comme la CNIL rappellent que certains systèmes peuvent renforcer des discriminations, et qu’il faut des mesures de prévention et de transparence. 9

Pour illustrer concrètement comment la modération peut modifier une réponse (voire la bloquer), voici un petit exemple basé sur un cas réel souvent cité : le chatbot DeepSeek.

Exemple concret : DeepSeek et les sujets sensibles (Ouïghours)

Un exemple qui montre bien l’effet de la modération, c’est le cas de DeepSeek. C’est une IA chinoise récente, souvent présentée comme une « réponse » à ChatGPT, avec un modèle conversationnel utilisé par le grand public. 10 Plusieurs tests publiés dans la presse francophone indiquent que, sur des sujets politiques sensibles (par exemple Taïwan, Tian’anmen, Xinjiang / Ouïghours), le chatbot peut éviter la question ou refuser de répondre. 11

J’ai d’ailleurs rencontré un cas similaire en classe : un camarade avait installé DeepSeek en ligne de commande, c’est-à-dire qu’il l’utilisait dans une interface très simple, uniquement en texte, sans « vraie application » graphique (un peu comme les terminaux qu’on voit dans certains films). Voici une illustration ci-dessous de deux terminaux dans lesquels j’ai installé une IA pour l’exemple :

Exemple d’un terminal (cliquer pour agrandir l’illustration).

Ce qui était marquant, c’est le comportement « en deux temps ». Aujourd’hui, certaines IA ne répondent plus uniquement « d’un coup » : elles passent par une phase de raisonnement (ou d’étapes internes) avant d’afficher la réponse finale. Dans notre cas, on voyait apparaître des éléments liés aux Ouïghours pendant cette phase… puis, juste avant la fin, DeepSeek basculait soudain sur un message de refus du type : « je ne peux pas répondre à ce sujet ». Des tests publics décrivent aussi ce type de filtrage « au dernier moment ». 12

Cet exemple rend la chose très concrète : la modération ne change pas seulement le ton, elle peut aussi bloquer ou remplacer une réponse, selon des règles imposées autour de l’outil.

Pour prolonger cette idée, je propose une petite démonstration interactive. Comme dans le chapitre 1 (où l’on voyait comment des choix techniques peuvent influencer une IA), l’objectif est maintenant d’observer l’effet des règles de modération.

L’idée est simple : on repart de la même « mini-IA » construite plus haut, mais cette fois on change son niveau de filtrage. Selon le profil choisi, l’IA sera plus ou moins stricte : certaines réponses seront reformulées, limitées, ou parfois refusées si le sujet est considéré comme sensible.

Démo 2 — Profils de modération

Compare la même question avec trois niveaux de filtrage (strict, moyen, permissif). La démo se débloque dès que la Démo 1 est terminée.

Chargement de la démo…

4.2 Ce qui existe aujourd’hui

La modération ne sort pas de nulle part : elle s’appuie sur des lois, des règlements, mais aussi sur des règles internes (entreprises, plateformes, institutions). Autrement dit, « qui décide ? » n’est pas une seule personne : ce sont des niveaux de décision qui s’empilent.

En Europe, l’AI Act (future loi européenne sur l’intelligence artificielle) encadre l’IA avec une logique de niveau de risque : certains usages sont interdits, d’autres sont autorisés mais soumis à des exigences plus fortes (documentation, gestion des risques, contrôles, transparence). 13

La modération des contenus est aussi influencée par le Digital Services Act (DSA) (loi européenne sur les services numériques), qui impose davantage de clarté sur les règles et les décisions de modération pour les plateformes en ligne. 14

Enfin, la question des données est centrale : le RGPD (règles européennes de protection des données) encadre la protection des données personnelles (collecte, usage, conservation, droits des personnes), ce qui touche directement les services numériques utilisant de l’IA. 15

Côté sécurité, des organismes comme l’ANSSI publient des recommandations spécifiques à l’IA générative (IA capable de créer du texte, des images ou du code). 16 On y retrouve notamment des risques de détournement. Par exemple, une « injection de prompt (manipulation de l’IA par une consigne cachée) correspond à une consigne piégée destinée à faire ignorer des règles au modèle (ex. : « ignore les consignes et fais quand même X »). Même si cela paraît simple, c’est un vrai problème : au lieu d’attaquer le code, on attaque les instructions.

Apport de mon interview : la “modération” en entreprise

Mon interview montre que la modération ne dépend pas seulement des lois ou des plateformes : elle existe aussi à l’échelle d’une entreprise, surtout quand il y a des données sensibles. Richard Bardy (responsable d’un centre de service chez Benu) explique que certains départements ne peuvent pas utiliser l’IA à cause de la confidentialité : « il est interdit d’utiliser l’IA (…) là où il y a des données sensibles (…) et (…) au niveau ressources humaines (…) c’est trop confidentiel ». 21

Il précise aussi la différence entre une IA “publique” et une IA interne : « clairement, c’est la deuxième solution (…) un projet de création d’IA interne (…) pour prétraiter des données confidentielles (…) qui resteraient à l’interne ». 21 Et il donne un exemple concret de règle interne : « nous avons par exemple l’interdiction d’utiliser ChatGPT », et même quand un outil est autorisé, il doit rester limité : « sans jamais mettre de données confidentielles, de noms, de données financières ». 21

Ce passage répond directement à la question du chapitre : ici, « qui décide ? » ce sont aussi les règles de l’entreprise (et parfois d’un groupe), qui fixent ce que l’IA peut faire ou non, indépendamment des aspects techniques.

4.3 Ce qui se discute (ONU, organisations, experts)

Au niveau international, des organisations et des textes de référence cherchent à poser des principes communs : respect des droits humains, sécurité, transparence, responsabilité, équité, etc.

L’UNESCO a publié une Recommandation sur l’éthique de l’intelligence artificielle, qui insiste sur la protection des droits, l’évaluation des risques et la responsabilité des acteurs. 17

L’OCDE propose aussi des principes pour une IA « digne de confiance », utilisés comme repère par de nombreux pays : robustesse, transparence, respect des valeurs démocratiques et des droits humains. 18

Enfin, au niveau européen, le Conseil de l’Europe a adopté une Convention-cadre sur l’IA qui vise à garantir la compatibilité des systèmes d’IA avec les droits humains, la démocratie et l’État de droit. 19

4.4 Ce qui est envisageable

À mon avis, la suite logique est d’aller vers des règles plus lisibles et plus vérifiables : renforcer les audits indépendants des modèles, exiger davantage de transparence sur les données et les critères de modération, et améliorer l’information donnée à l’utilisateur lorsqu’une réponse est refusée (pour comprendre quelle règle s’applique).

Il reste aussi des usages où des limites plus strictes semblent nécessaires, notamment quand l’IA intervient dans des domaines à haut risque (sécurité, santé, justice, surveillance, etc.).

L’interview apporte aussi une idée très concrète : dans certains contextes, la modération peut se traduire par un “cadre de comportement” simple, pensé pour éviter les erreurs et protéger les données. Richard Bardy propose par exemple des règles claires pour un chatbot en entreprise : « Ne jamais transmettre de données confidentielles. Ne jamais transmettre de données financières. Répondre toujours de manière positive et polie (…) faire le plus court possible (…) rester factuel ». 21

En Suisse aussi, on voit cette logique apparaître : la Confédération présente ses travaux et stratégies autour de l’IA, notamment pour l’administration fédérale. 20

Pour conclure comme au chapitre 1 : derrière une technologie, il y a toujours des choix. Ici, ce ne sont plus seulement des choix techniques, mais aussi des choix politiques, juridiques et organisationnels. Et ces décisions ont des impacts directs sur l’usage de l’IA… y compris sur son coût environnemental, ce qui prépare le chapitre suivant.

4.5 Notes de bas de page et sources du chapitre 2

  1. COMMISSION NATIONALE DE L’INFORMATIQUE ET DES LIBERTÉS, « Algorithmes et discriminations : le Défenseur des droits, avec la CNIL, appelle à une mobilisation collective », Site de la CNIL, 2 juin 2020, https://www.cnil.fr/fr/algorithmes-et-discriminations-le-defenseur-des-droits-avec-la-cnil-appelle-une-mobilisation (consulté le 10.02.2026).
  2. SZADKOWSKI, Michaël ; SIX, Nicolas, « DeepSeek, la réponse chinoise à ChatGPT, expliquée en six questions », Le Monde, 28 janv. 2025, https://www.lemonde.fr/pixels/article/2025/01/28/deepseek-la-reponse-chinoise-a-chatgpt-expliquee-en-six-questions_6520488_4408996.html (consulté le 10.02.2026).
  3. RADIO TÉLÉVISION SUISSE (RTS), « DeepSeek, le chatbot chinois qui défie les géants américains de l’IA », RTS, 27 janv. 2025, https://www.rts.ch/info/sciences-tech/2025/article/deepseek-le-chatbot-chinois-qui-defie-les-geants-americains-de-l-ia-28770335.html (consulté le 10.02.2026).
  4. AGUESSE, Léo, « Performant mais politiquement filtré : on a testé DeepSeek, le champion chinois de l’IA », Le Parisien, 28 janv. 2025, https://www.leparisien.fr/high-tech/performant-mais-politiquement-filtre-on-a-teste-deepseek-le-champion-chinois-de-lia-28-01-2025-D2HID42W5JES5FDST77NHENZMM.php (consulté le 10.02.2026).
  5. UNION EUROPÉENNE, Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act) , 2024, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr (consulté le 10.02.2026).
  6. UNION EUROPÉENNE, Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques (Digital Services Act) , 2022, https://eur-lex.europa.eu/eli/reg/2022/2065/oj?locale=fr (consulté le 10.02.2026).
  7. UNION EUROPÉENNE, Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 (RGPD) , 2016, https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=fr (consulté le 10.02.2026).
  8. AGENCE NATIONALE DE LA SÉCURITÉ DES SYSTÈMES D’INFORMATION (ANSSI), « Recommandations de sécurité pour un système d’IA générative », Guide ANSSI-PA-102, 29 avril 2024, https://messervices.cyber.gouv.fr/documents-guides/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf (consulté le 10.02.2026).
  9. UNESCO, Recommandation sur l’éthique de l’intelligence artificielle, 2021, https://unesdoc.unesco.org/ark:/48223/pf0000380455_fre (consulté le 10.02.2026).
  10. OCDE, Quels sont les Principes de l’OCDE sur l’IA, 2020, https://www.oecd.org/content/dam/oecd/fr/publications/reports/2019/06/what-are-the-oecd-principles-on-ai_f5a9a903/f4b17318-fr.pdf (consulté le 10.02.2026).
  11. CONSEIL DE L’EUROPE, La Convention-cadre sur l’intelligence artificielle, 2024, https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle (consulté le 10.02.2026).
  12. CHANCELLERIE FÉDÉRALE SUISSE, Intelligence artificielle, https://www.bk.admin.ch/bk/fr/home/digitale-transformation-ikt-lenkung/kuenstliche_intelligenz.html (consulté le 10.02.2026).
  13. BARDY, Richard, Interview, entretien réalisé par Maxime Bardy, Route des Hauts-Genevrés, 28 janv. 2026, transcription personnelle (voir annexes du TPA). ↑1 ↑2 ↑3 ↑4

5. Chapitre 3 — Axe écologique

Question 3 : quel est l’impact environnemental concret d’une IA et comment le réduire sans trop perdre en qualité ?

5.1 Impact écologique : ce qu’on ne voit pas derrière l’écran

Quand on utilise une IA, on a facilement l’impression que “ça ne consomme presque rien”, parce qu’on ne voit qu’une interface propre, un champ de texte et une réponse qui arrive. Pourtant, derrière cette apparente simplicité, il y a toute une chaîne technique : mon appareil, le réseau, des serveurs, des systèmes de refroidissement, et parfois de très gros centres de données spécialisés. L’impact environnemental de l’IA ne vient donc pas d’un seul endroit, mais d’un ensemble d’infrastructures qui consomment de l’électricité, mobilisent du matériel électronique et nécessitent aussi des ressources pour fonctionner.22

Je trouve important de préciser tout de suite un point : l’IA n’est pas un “problème à part” totalement séparé du reste du numérique. Elle s’ajoute à un monde déjà très numérisé, dans lequel le streaming, le cloud, les réseaux sociaux ou encore le stockage de données consomment déjà des ressources. La vraie question n’est donc pas seulement “est-ce que l’IA pollue ?”, mais plutôt : qu’est-ce qu’elle ajoute comme charge supplémentaire, et dans quels usages cette charge est-elle vraiment justifiée.29

Pour comprendre cet impact, je trouve utile de distinguer trois niveaux. D’abord, il y a le terminal de l’utilisateur : ordinateur, smartphone, écran, box internet. Ensuite, il y a le réseau, qui transporte les données. Enfin, il y a les serveurs et les data centers, qui stockent les fichiers, exécutent les calculs et doivent être refroidis. Avec l’IA générative (IA capable de créer du texte, des images ou du code), cette troisième couche prend encore plus d’importance, car produire une réponse ou générer une image demande davantage de calculs qu’un simple affichage de page web.22

Il faut aussi distinguer l’entraînement et l’utilisation. L’entraînement d’un grand modèle est très lourd, car il demande énormément de calculs pendant une période donnée. Ensuite, il y a l’usage quotidien : chaque requête est beaucoup plus petite qu’un entraînement complet, mais elle est répétée à très grande échelle. C’est justement ce décalage qui rend le sujet intéressant : une seule utilisation paraît minuscule, mais multipliée par des millions de personnes, elle finit par représenter quelque chose de réel.22

C’est cette idée que je cherche à rendre visible dans mon site avec la Démo 3. Le but n’est pas de faire peur avec de très gros chiffres, mais de montrer concrètement qu’une visite web et surtout des appels à l’IA ne sont pas “gratuits”. Même si l’utilisateur ne voit qu’un graphique ou un compteur, derrière il y a bien des données transférées, de l’énergie consommée et un coût qui augmente au fur et à mesure de l’utilisation.

5.2 Une technologie utile, mais pas écologiquement neutre

À mon avis, l’erreur serait de dire soit “l’IA est géniale donc ce n’est pas grave”, soit “l’IA détruit la planète donc il faut tout arrêter”. La réalité est plus nuancée. Oui, l’IA a un coût environnemental réel. Mais oui aussi, elle peut être utile dans certains cas, par exemple pour optimiser certains systèmes, aider à analyser des données, améliorer des outils de travail ou automatiser des tâches répétitives. Le sujet n’est donc pas seulement écologique : il est aussi lié à la valeur réelle de l’usage.22

Cette nuance rejoint aussi l’idée générale de la vidéo AI is destroying the ENVIRONMENT?!, que j’ai utilisée comme point de départ de réflexion pour ce chapitre : éviter les raccourcis trop simples, replacer l’IA dans l’ensemble du numérique, et distinguer les usages utiles des usages plus gadget.30

C’est là qu’entre en jeu une question que je trouve importante : est-ce qu’on utilise l’IA pour quelque chose d’utile, ou juste parce que c’est possible ? Si une IA permet de gagner du temps ou d’éviter du gaspillage, son coût ne se discute pas de la même manière que si elle sert à produire à la chaîne du contenu peu utile. L’impact environnemental ne peut donc pas être séparé de la finalité.29

Il existe aussi ce qu’on appelle l’effet rebond (quand un gain d’efficacité augmente finalement l’usage). Si une technologie rend une tâche plus facile, plus rapide ou plus accessible, on a tendance à l’utiliser davantage. Donc même si une utilisation individuelle devient plus efficace, la consommation totale peut quand même augmenter parce qu’on multiplie les requêtes, les contenus et les automatismes. Dans le cas de l’IA générative, ce risque est important : plus c’est facile de demander, générer, résumer ou reformuler, plus on risque d’en faire souvent, y compris pour des tâches peu nécessaires.22

Je trouve aussi qu’il faut éviter une autre confusion : l’IA n’est pas seule responsable de l’impact du numérique. Mais ce n’est pas une raison pour l’ignorer. Dire “internet consomme déjà” ne change pas le fait que l’IA ajoute une pression supplémentaire sur les infrastructures. Le bon raisonnement n’est donc ni de la diaboliser, ni de la banaliser, mais de la replacer dans l’ensemble du numérique.

Dans mon TPA, je préfère donc défendre une position simple : l’IA n’est pas écologiquement neutre, mais elle n’est pas non plus un mal absolu. Tout dépend des usages, de l’échelle, du modèle choisi et de la manière dont on s’en sert. C’est pour cela que ma Démo 3 ne cherche pas à donner une “sentence” contre l’IA, mais plutôt à rendre visible un coût qui reste normalement invisible.

5.3 Estimations, ordres de grandeur et lecture de la Démo 3

L’un des problèmes de ce sujet, c’est qu’on voit souvent circuler des chiffres très impressionnants, mais pas toujours bien expliqués. Or, mesurer précisément l’impact écologique d’une requête IA est difficile. Cela dépend du modèle utilisé, de la longueur du prompt (la consigne donnée à l’IA), de la longueur de la réponse, du matériel, du réseau, du centre de données et même du moment où la requête est faite. C’est pour ça que, dans ce chapitre, je préfère parler d’ordres de grandeur et d’estimations transparentes plutôt que de prétendre donner un chiffre parfait.22

C’est exactement la logique de ma Démo 3 — “Ma visite”. Le graphique ne prétend pas mesurer scientifiquement, au watt près, la consommation réelle de toute l’infrastructure. Il sert plutôt à produire une estimation pédagogique basée sur des éléments concrets observables dans la visite du site. L’idée est de montrer une évolution progressive pendant la navigation, puis des hausses plus visibles quand des appels à l’IA ont lieu.

Concrètement, l’algorithme de la démo repose sur trois grandes familles d’informations. D’abord, il y a le temps passé sur la page, qui permet d’estimer une consommation de base du terminal utilisateur à partir d’une puissance moyenne fixée par défaut. Ensuite, il y a les données transférées, récupérées via les ressources chargées par la page, ce qui permet d’estimer une part liée au réseau. Enfin, il y a les appels IA, qui sont repérés séparément : la démo suit les tokens d’entrée et de sortie (petits morceaux de texte traités par l’IA), le coût estimé de ces requêtes, ainsi que les ressources réseau associées. C’est cette combinaison qui permet d’alimenter les cartes et le graphique.25, 27

Dans la version actuelle, le script démarre un suivi au chargement de la page, enregistre régulièrement des points dans une timeline, puis met à jour les indicateurs visibles : temps écoulé, données transférées, énergie estimée, CO₂e (équivalent CO₂) estimé et coût estimé. Le graphique principal affiche une courbe d’énergie cumulée, une courbe de CO₂e cumulé, ainsi que des marqueurs pour les requêtes IA. Cela permet au lecteur de comprendre que tout ne vient pas du même endroit : il y a un fond de consommation “normal” lié à la visite, puis des ajouts plus visibles lorsque l’IA est utilisée.

Je trouve que ce point est important, parce qu’il évite un discours trop abstrait. Au lieu de simplement écrire “l’IA consomme”, la démo montre qu’il y a déjà une consommation liée au site lui-même, puis que les appels IA viennent s’ajouter à cette base. Autrement dit, le graphique aide à visualiser quelque chose de simple : le numérique consomme déjà, et l’IA ajoute une couche supplémentaire.

Pour la partie “web”, il existe déjà des méthodes reconnues. Par exemple EcoIndex (indicateur de l’impact environnemental d’une page web) s’appuie sur des éléments mesurables comme le poids de la page, le nombre de requêtes et la complexité du DOM (structure interne d’une page web) pour donner un ordre de grandeur. On peut aussi utiliser des modèles comme le Sustainable Web Design Model, notamment via CO2.js, qui part des données transférées pour produire une estimation cohérente.23, 25

Pour la partie “IA”, il faut distinguer deux choses. D’un côté, il y a le coût financier, qui peut être estimé directement car l’API (liaison entre deux services ou logiciels) est facturée au token (petit morceau de texte traité par l’IA). De l’autre, il y a le coût écologique, qui est plus difficile à calculer précisément car l’on ne connaît pas toute l’infrastructure exacte derrière chaque requête. Donc le plus honnête est de parler d’une estimation, fondée sur des hypothèses annoncées clairement, plutôt que de prétendre mesurer une vérité absolue.27, 28

Pour que le résultat parle davantage au lecteur, je convertis aussi certaines valeurs en unités plus compréhensibles, comme le CO₂e (équivalent CO₂) et le coût en CHF. Pour cela, on peut s’appuyer sur des valeurs de référence publiées en Suisse, par exemple pour le mix électrique (origine de l’électricité utilisée dans un pays) ou pour le prix moyen de l’électricité.26

Démo 3 — Ma visite

Pendant que tu lis, on mesure en direct (estimation) ce que ta visite “coûte” : énergie consommée, CO₂e, données transférées et appels à l’IA. Les pics correspondent aux requêtes IA (appels envoyés à l’IA par le site).

Temps

00:00

Depuis l’arrivée

Données transférées

0 kB

Dont IA 0 kB

Énergie estimée

0 Wh

Appareil + réseau

CO₂e estimé

0 g

Mix élec. CH (configurable)

Coût estimé

CHF 0.00

Élec. + IA (CHF 0.00 IA)

Évolution pendant la visite

Les valeurs ci-dessous sont des estimations basées sur des modèles et des hypothèses configurables.

Dernières requêtes IA

Les marqueurs sont aussi visibles sur le graphique.

    Les valeurs sont des estimations pédagogiques : appareil par défaut, modèle “Sustainable Web Design” pour le réseau, prix/tokens IA configurables. Objectif : rendre visibles les ordres de grandeur.

    5.4 Comment réduire l’impact sans ruiner la qualité

    Ce que je retiens, c’est qu’on peut réduire une partie de l’impact écologique sans devoir renoncer complètement à l’IA. Le plus efficace n’est pas forcément de “supprimer l’IA”, mais souvent de mieux choisir quand et comment l’utiliser. Le vrai levier n’est donc pas seulement technique : il est aussi lié à la sobriété d’usage.24

    a) Réduire l’impact côté site web
    • Alléger les pages : images compressées, formats modernes, pas de ressources inutiles. Le poids d’une page joue directement sur la quantité de données transférées.23
    • Limiter le nombre de requêtes : éviter de charger des éléments inutiles et faire attention aux scripts externes.24
    • Utiliser le cache intelligemment : éviter de retélécharger tout si l’utilisateur revient ou navigue dans le site.25
    b) Réduire l’impact côté IA (et garder le côté “utile”)
    • Réduire les tokens : demander une réponse plus courte, éviter d’envoyer un contexte énorme si ce n’est pas nécessaire, ne pas multiplier les requêtes pour une tâche triviale.27
    • Éviter les doublons : si une question revient souvent, un système de cache peut éviter de refaire les mêmes appels API.
    • Choisir l’outil adapté : éviter de “sur-dimensionner” en utilisant un très gros modèle pour une tâche simple.

    La Démo 3 peut d’ailleurs aussi servir à faire passer cette idée. En voyant que les indicateurs montent au fil de la visite et que certaines requêtes IA ajoutent un coût identifiable, le lecteur comprend plus facilement qu’optimiser n’est pas juste une obsession technique : c’est aussi une façon de limiter le gaspillage. Le but n’est pas de culpabiliser, mais de montrer que, comme souvent en informatique, ce qu’on mesure devient plus facile à améliorer.

    Pour conclure, ce chapitre ne cherche pas à donner un chiffre parfait, mais à rendre visible quelque chose de simple : chaque visite et chaque requête ont un coût.

    5.5 Notes de bas de page et sources du chapitre 3

    1. ZEWE, Adam, « Explained: Generative AI’s environmental impact », MIT News, 17 janv. 2025, https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117 (consulté le 17.03.2026). ↑1 ↑2 ↑3 ↑4 ↑5 ↑6
    2. ECOINDEX (GreenIT.fr), « Comment ça marche ? », EcoIndex, https://www.ecoindex.fr/comment-ca-marche/ (consulté le 17.03.2026). ↑1 ↑2
    3. ARCEP, « Référentiel général de l’écoconception des services numériques (RGESN) », 17 mai 2024, https://www.arcep.fr/mes-demarches-et-services/entreprises/fiches-pratiques/referentiel-general-ecoconception-services-numeriques.html (consulté le 17.03.2026). ↑1 ↑2
    4. THE GREEN WEB FOUNDATION, « CO2.js: Overview », https://developers.thegreenwebfoundation.org/co2js/overview/ (consulté le 17.03.2026). ↑1 ↑2 ↑3
    5. COMMISSION FÉDÉRALE DE L’ÉLECTRICITÉ (ElCom), « Communiqués de presse », https://www.elcom.admin.ch/fr/communiques-de-presse (consulté le 17.03.2026).
    6. OPENAI, API Pricing, OpenAI, https://openai.com/api/pricing/ (consulté le 17.03.2026). ↑1 ↑2 ↑3
    7. OPENAI, « Tokens », Documentation développeurs OpenAI, https://platform.openai.com/docs/guides/text?api-mode=responses#tokens (consulté le 17.03.2026).
    8. REN, Shuo; CHEN, Xuan; LIU, Qiang; et al., « Reconciling the contrasting narratives on the environmental impacts of large language models », Scientific Reports, 2024, https://www.nature.com/articles/s41598-024-76682-6 (consulté le 17.03.2026). ↑1 ↑2
    9. SCIENCE TRASH, AI is destroying the ENVIRONMENT?!, YouTube, https://www.youtube.com/watch?v=yeapAdZlIfE (consulté le 17.03.2026).

    6. Conclusion générale

    Ce TPA m’a permis de montrer que l’intelligence artificielle n’est pas seulement un outil pratique ou impressionnant. Derrière les réponses qu’elle produit, il y a toujours des choix techniques, des règles de modération, des décisions humaines et aussi un coût matériel et énergétique.

    À travers les trois axes de ce travail, j’ai pu mieux comprendre que l’IA ne fonctionne pas “magiquement” : elle dépend de données, d’un entraînement, de réglages, de limites et d’une infrastructure bien réelle.

    Le but de « Comprendre l’IA avec l’IA » était justement de rendre tout cela plus visible et plus concret. Grâce au site web et aux démos, j’ai voulu éviter un travail trop abstrait et montrer l’IA de manière plus vivante, plus compréhensible et plus proche de la réalité.

    Ce projet m’a surtout appris qu’il faut garder un regard critique : l’IA peut être très utile, mais elle doit être comprise, questionnée et utilisée avec réflexion.

    7. Bilan personnel

    Je suis assez content du résultat de ce TPA et je trouve qu’il remplit bien son rôle. J’en suis fier parce qu’il correspond vraiment à ce que je voulais faire au départ : un projet qui parle de l’IA, mais qui la met aussi en pratique.

    Pendant toute la réalisation, l’IA m’a accompagné à différents moments, que ce soit pour chercher des pistes, améliorer certains textes, tester des idées ou développer certaines parties du site. Je trouve justement intéressant que ce travail montre à la fois ce que l’IA permet de faire et les questions qu’elle pose.

    Ce TPA m’a surtout permis de changer ma manière de travailler avec l’IA. Au début, j’avais tendance à trop lui faire confiance ou à trop m’appuyer dessus. Petit à petit, j’ai compris qu’il valait mieux l’utiliser comme un outil d’aide que comme quelque chose qui pense à ma place. Ce changement m’a beaucoup apporté, parce qu’il m’a obligé à rester plus actif, plus attentif et plus critique dans ma façon de travailler.

    J’ai aussi beaucoup apprécié le fait que ce projet m’ait permis de comprendre plus en profondeur certains aspects de l’IA. En travaillant sur l’entraînement, la modération, les biais, l’énergie ou encore les limites des modèles, j’ai eu plusieurs moments où j’ai vraiment eu l’impression de mieux comprendre ce qu’il y a derrière des outils qu’on utilise souvent sans trop y penser.

    Au final, ce TPA m’a appris bien plus que des informations sur l’IA. Il m’a aussi appris à mieux travailler, à mieux organiser mes idées et à prendre plus de recul sur les outils numériques que j’utilise.

    8. Bibliographie

    Références utilisées pour ce TPA, classées par type de document.

    8.1 Entretiens

    1. BARDY, Richard, Interview, entretien réalisé par Maxime Bardy, Route des Hauts-Genevrés, 28 janv. 2026, transcription personnelle (voir annexes du TPA).

    8.2 Films / vidéos

    1. AIMMERSION, GPT-5 : la vraie révolution que personne ne voit venir , 10 août 2025, 07:00 min. (https://youtu.be/D8qZKcRoaXQ) (consulté le 19.11.2025).
    2. DEFEND INTELLIGENCE, Je code ChatGPT de 0 pour comprendre VRAIMENT comment ça marche , 24 oct. 2025, 31:55 min. (https://youtu.be/v5JPwgLKb4Q) (consulté le 19.11.2025).
    3. LEO DUFF, Comment ChatGPT assoiffe cette population , 1 juin 2025, 10:04 min. (https://youtu.be/LNoklk0NRmQ) (consulté le 19.11.2025).
    4. MICODE / UNDERSCORE_, L’IA va-t-elle nous rendre idiots ? — documentaire Micode , 26 janv. 2026. (https://shows.acast.com/micode-underscore/episodes/697089e92651ff0ee600fd2a) (consulté le 17.03.2026).
    5. NORTH, Cyrus, Pourquoi ChatGPT ne doit pas être votre psy , 21 sept. 2025, 14:06 min. (https://youtu.be/w9lVWE6f3uQ) (consulté le 19.11.2025).
    6. PAULY, Christophe, Le MOT interdit qui fait dérailler les IA , 20 sept. 2025, 19:10 min. (https://youtu.be/H-807b9W1Us) (consulté le 19.11.2025).
    7. SALENNE, Ludo, Comment ChatGPT vous bousille le cerveau (et c’est voulu) , 8 juil. 2025, 19:05 min. (https://youtu.be/mZDhRjzV1Hk) (consulté le 19.11.2025).
    8. SCIENCE TRASH, AI is destroying the ENVIRONMENT?!, YouTube. (https://www.youtube.com/watch?v=yeapAdZlIfE) (consulté le 17.03.2026).
    9. UNDERSCORE_, Il a créé une IA pour faire son travail (son boss hallucine) , 27 févr. 2025, 31:09 min. (https://youtu.be/MOlO1_mj1dU) (consulté le 19.11.2025).
    10. YOUTUBE, vidéo consultée pour le passage sponsorisé lié à Mammouth AI. (https://youtu.be/9P68VpuwDg8?si=0ShH-iKPz9EsxJSe) (consulté le 17.03.2026).

    8.3 Articles / papiers scientifiques

    1. BRICKEN, Trenton; TEMPLETON, Adly; BATSON, Joshua; et al., « Towards Monosemanticity : Decomposing Language Models With Dictionary Learning », Transformer Circuits Thread, 2023. https://transformer-circuits.pub/2023/monosemantic-features/index.html (consulté le 19.11.2025).
    2. CHOW, Jeffrey; et al., « Pathways Language Model (PaLM) : Scaling to 540 billion parameters for breakthrough performance », Google Research Blog, 4 avril 2022. https://research.google/blog/pathways-language-model-palm-scaling-to-540-billion-parameters-for-breakthrough-performance/ (consulté le 19.11.2025).
    3. MCBAIN, Ryan K.; BOZICK, Robert; DILIBERTI, Melissa; et al., « Use of Generative AI for Mental Health Advice Among US Adolescents and Young Adults », JAMA Network Open, 8(11), 2025. https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2841067 (consulté le 19.11.2025).
    4. REN, Shuo; CHEN, Xuan; LIU, Qiang; et al., « Reconciling the contrasting narratives on the environmental impacts of large language models », Scientific Reports, 2024. https://www.nature.com/articles/s41598-024-76682-6 (consulté le 17.03.2026).
    5. SHARMA, Mrinank; TONG, Meg; KORBAK, Tomasz; et al., « Towards Understanding Sycophancy in Language Models », Proceedings of the Twelfth International Conference on Learning Representations (ICLR) , 2024. https://proceedings.iclr.cc/paper_files/paper/2024/file/0105f7972202c1d4fb817da9f21a9663-Paper-Conference.pdf (consulté le 19.11.2025).
    6. STRUBELL, Emma; GANESH, Ananya; MCCALLUM, Andrew, « Energy and Policy Considerations for Deep Learning in NLP », Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics , 2019. https://aclanthology.org/P19-1355/ (consulté le 19.11.2025).
    7. VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; et al., « Attention Is All You Need », Advances in Neural Information Processing Systems , 30, 2017. https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf (consulté le 19.11.2025).

    8.4 Sites internet / pages web / documentation

    1. AGENCE NATIONALE DE LA SÉCURITÉ DES SYSTÈMES D’INFORMATION (ANSSI), « Recommandations de sécurité pour un système d’IA générative », Guide ANSSI-PA-102, 29 avril 2024. https://messervices.cyber.gouv.fr/documents-guides/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf (consulté le 10.02.2026).
    2. AGUESSE, Léo, « Performant mais politiquement filtré : on a testé DeepSeek, le champion chinois de l’IA », Le Parisien, 28 janv. 2025. https://www.leparisien.fr/high-tech/performant-mais-politiquement-filtre-on-a-teste-deepseek-le-champion-chinois-de-lia-28-01-2025-D2HID42W5JES5FDST77NHENZMM.php (consulté le 10.02.2026).
    3. ARCEP, « Référentiel général de l’écoconception des services numériques (RGESN) », 17 mai 2024. https://www.arcep.fr/mes-demarches-et-services/entreprises/fiches-pratiques/referentiel-general-ecoconception-services-numeriques.html (consulté le 17.03.2026).
    4. BAUMEISTER, « Frise chronologique – jalons de l’intelligence artificielle », illustration extraite de l’article « L’intelligence artificielle dans la construction », Baumeister, s.d. https://baumeister.swiss/wp-content/uploads/2021/02/SBV_Grafiken_Meilensteine_FR_ausgeschnitten-1.jpg (consulté le 10.12.2025).
    5. BAUMEISTER, « L’intelligence artificielle dans la construction », Baumeister, s.d. https://baumeister.swiss/fr/lintelligence-artificielle-dans-la-construction/ (consulté le 10.12.2025).
    6. CHANCELLERIE FÉDÉRALE SUISSE, Intelligence artificielle. https://www.bk.admin.ch/bk/fr/home/digitale-transformation-ikt-lenkung/kuenstliche_intelligenz.html (consulté le 10.02.2026).
    7. COMMISSION FÉDÉRALE DE L’ÉLECTRICITÉ (ElCom), « Communiqués de presse ». https://www.elcom.admin.ch/fr/communiques-de-presse (consulté le 17.03.2026).
    8. COMMISSION NATIONALE DE L’INFORMATIQUE ET DES LIBERTÉS ; DÉFENSEUR DES DROITS, « Algorithmes et discriminations : le Défenseur des droits et la CNIL appellent à une mobilisation », Site de la CNIL, 2020. https://www.cnil.fr/fr/algorithmes-et-discriminations-le-defenseur-des-droits-avec-la-cnil-appelle-une-mobilisation (consulté le 10.12.2025).
    9. CONSEIL DE L’EUROPE, La Convention-cadre sur l’intelligence artificielle . https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle (consulté le 10.02.2026).
    10. DIGITEC, « Le boom de l’IA entraîne une pénurie de mémoire et une hausse des prix », Digitec, 17 nov. 2025. https://www.digitec.ch/fr/page/le-boom-de-lia-entraine-une-penurie-de-memoire-et-une-hausse-des-prix-40480 (consulté le 17.03.2026).
    11. ECOINDEX (GreenIT.fr), « Comment ça marche ? ». https://www.ecoindex.fr/comment-ca-marche/ (consulté le 17.03.2026).
    12. HUGGING FACE, Diffusers – GitHub repository. https://github.com/huggingface/diffusers (consulté le 19.11.2025).
    13. HUGGING FACE, Transformers Documentation. https://huggingface.co/docs/transformers/en/index (consulté le 19.11.2025).
    14. HUGGING FACE, Transformers – GitHub repository. https://github.com/huggingface/transformers (consulté le 19.11.2025).
    15. OCDE, Quels sont les Principes de l’OCDE sur l’IA. https://www.oecd.org/content/dam/oecd/fr/publications/reports/2019/06/what-are-the-oecd-principles-on-ai_f5a9a903/f4b17318-fr.pdf (consulté le 10.02.2026).
    16. OPENAI, API Pricing. https://openai.com/api/pricing/ (consulté le 17.03.2026).
    17. OPENAI, « Tokens », documentation développeurs OpenAI. https://platform.openai.com/docs/guides/text?api-mode=responses#tokens (consulté le 17.03.2026).
    18. RADIO TÉLÉVISION SUISSE (RTS), « DeepSeek, le chatbot chinois qui défie les géants américains de l’IA », RTS, 27 janv. 2025. https://www.rts.ch/info/sciences-tech/2025/article/deepseek-le-chatbot-chinois-qui-defie-les-geants-americains-de-l-ia-28770335.html (consulté le 10.02.2026).
    19. REUTERS, « The AI frenzy is driving a memory chip supply crisis », Reuters, 2 déc. 2025. https://www.reuters.com/world/china/ai-frenzy-is-driving-new-global-supply-chain-crisis-2025-12-03/ (consulté le 17.03.2026).
    20. SZADKOWSKI, Michaël ; SIX, Nicolas, « DeepSeek, la réponse chinoise à ChatGPT, expliquée en six questions », Le Monde, 28 janv. 2025. https://www.lemonde.fr/pixels/article/2025/01/28/deepseek-la-reponse-chinoise-a-chatgpt-expliquee-en-six-questions_6520488_4408996.html (consulté le 10.02.2026).
    21. THAT’S AI, « L’histoire de l’IA », That’s AI, s.d. https://www.thats-ai.org/fr-CH/units/l-histoire-de-l-ia (consulté le 10.12.2025).
    22. THE GREEN WEB FOUNDATION, « CO2.js: Overview ». https://developers.thegreenwebfoundation.org/co2js/overview/ (consulté le 17.03.2026).
    23. TIME, « Parents Allege ChatGPT Is Responsible for Their Teenage Son’s Death by Suicide », TIME – Tech, 2025. https://time.com/7312484/chatgpt-openai-suicide-lawsuit/ (consulté le 19.11.2025).
    24. UNESCO, Recommandation sur l’éthique de l’intelligence artificielle . https://unesdoc.unesco.org/ark:/48223/pf0000380455_fre (consulté le 10.02.2026).
    25. UNITED NATIONS REGIONAL INFORMATION CENTRE, « Artificial intelligence : How much energy does AI use ? », UNRIC, 2025. https://unric.org/en/artificial-intelligence-how-much-energy-does-ai-use/ (consulté le 19.11.2025).
    26. UNION EUROPÉENNE, Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 (RGPD) , 2016. https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=fr (consulté le 10.02.2026).
    27. UNION EUROPÉENNE, Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques (Digital Services Act) , 2022. https://eur-lex.europa.eu/eli/reg/2022/2065/oj?locale=fr (consulté le 10.02.2026).
    28. UNION EUROPÉENNE, Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act) , 2024. https://data.europa.eu/eli/reg/2024/1689/oj (consulté le 19.11.2025).
    29. WIKIMEDIA COMMONS, « File:DeepSeek logo.svg », Wikimedia Commons, s.d. https://commons.wikimedia.org/wiki/File:DeepSeek_logo.svg (consulté le 10.12.2025).
    30. WIKIPEDIA, « Fichier:ChatGPT-Logo.svg », Wikimedia Commons, s.d. https://fr.wikipedia.org/wiki/Fichier:ChatGPT-Logo.svg (consulté le 10.12.2025).
    31. WIKIPEDIA, « Fichier:Google Gemini icon 2025.svg », Wikimedia Commons, s.d. https://fr.wikipedia.org/wiki/Fichier:Google_Gemini_icon_2025.svg (consulté le 10.12.2025).
    32. WIKIPEDIA, « Fichier:Microsoft Copilot Icon.png », Wikimedia Commons, s.d. https://fr.wikipedia.org/wiki/Fichier:Microsoft_Copilot_Icon.png (consulté le 10.12.2025).
    33. ZAO-SANDERS, Marc, « How People Are Really Using Gen AI in 2025 », Harvard Business Review, 2025. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025 (consulté le 19.11.2025).
    34. ZEWE, Adam, « Explained : Generative AI’s environmental impact », MIT News, 2025. https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117 (consulté le 19.11.2025).

    8.5 IA

    Dans le cadre de ce TPA, j’ai utilisé plusieurs outils d’intelligence artificielle comme aides ponctuelles à la recherche, à la vérification, à la reformulation, à la correction linguistique, à la structuration de certaines parties ainsi qu’au développement technique du site web. Leur utilisation est restée encadrée : les sources proposées ont été revérifiées manuellement, les textes ont été relus et retravaillés, et les choix finaux de contenu, de structure et de formulation m’appartiennent.

    1. CHATGPT (OpenAI), https://chatgpt.com (consulté régulièrement durant l’élaboration du TPA, entre septembre 2025 et mars 2026).
    2. GITHUB COPILOT (GitHub), https://github.com/features/copilot (consulté régulièrement durant le développement technique du site web du TPA, entre janvier 2026 et mars 2026).
    3. CODEX (OpenAI), https://openai.com/codex/ (consulté régulièrement durant la vérification, la relecture et l’amélioration de certains blocs de code du site web, entre janvier 2026 et mars 2026).

    8.5.1 Prompts utilisés pour la recherche de sources sur l’axe technologique

    « Cherche-moi des sources fiables, claires et vérifiables sur la manière dont l’entraînement d’une IA influence ses réponses. Évite Wikipédia. »

    « Trouve-moi des sources sérieuses sur les modèles de langage, les transformers et le rôle des données d’entraînement. »

    « Cherche des sources en français sur le fonctionnement général d’une IA générative, avec un niveau compréhensible pour un TPA scolaire. »

    « Donne-moi aussi une ou deux sources plus techniques ou académiques sur les transformers ou l’entraînement, même si elles sont en anglais. »

    « Trouve-moi une vidéo YouTube en français qui explique simplement comment une IA de type ChatGPT fonctionne. »

    « Cherche-moi une source fiable sur le rôle des GPU dans l’entraînement de l’intelligence artificielle. »

    « Trouve-moi des sources sur les limites techniques d’une IA, par exemple les hallucinations, les erreurs ou les biais dus aux données. »

    « Donne-moi une source reconnue qui explique pourquoi une IA ne “comprend” pas comme un humain. »

    8.5.2 Prompts utilisés pour la recherche de sources sur l’axe politique / légal

    « Cherche-moi des sources fiables sur la modération des IA et sur la manière dont certaines réponses peuvent être filtrées ou bloquées. »

    « Trouve-moi des sources sérieuses sur les biais, la censure et les règles imposées aux intelligences artificielles conversationnelles. »

    « Cherche de préférence des sources européennes ou suisses sur l’encadrement de l’IA. »

    « Trouve-moi des sources officielles sur l’AI Act, le RGPD et le Digital Services Act, avec si possible une explication claire de leur lien avec l’IA. »

    « Donne-moi une source qui explique simplement qui décide des limites d’une IA : entreprise, loi, plateforme, développeurs, etc. »

    « Trouve-moi des articles sérieux sur des cas où une IA a refusé de répondre à certains sujets sensibles. »

    « Cherche-moi une ou deux vidéos en français qui parlent de la modération, des biais ou des limites politiques de l’IA. »

    « Trouve-moi des sources institutionnelles ou reconnues sur la gouvernance de l’IA, les principes éthiques et les droits humains. »

    8.5.3 Prompts utilisés pour la recherche de sources sur l’axe écologique

    « Cherche-moi des sources fiables sur l’impact environnemental de l’intelligence artificielle. »

    « Trouve-moi des sources qui distinguent bien l’entraînement d’un modèle et son utilisation au quotidien. »

    « Cherche des sources sérieuses sur la consommation d’électricité des data centers, des GPU et des grands modèles d’IA. »

    « Donne-moi des sources claires sur les émissions estimées, la consommation énergétique et les ressources nécessaires pour faire fonctionner l’IA. »

    « Trouve-moi si possible une source en français sur l’écoconception numérique ou sur la sobriété numérique liée au web et à l’IA. »

    « Donne-moi aussi une source plus académique ou scientifique, même en anglais, sur les impacts environnementaux des grands modèles de langage. »

    « Cherche-moi une vidéo YouTube en français qui explique de manière simple le coût écologique de l’IA. »

    « Trouve-moi des sources sur les moyens de réduire l’impact environnemental de l’IA sans forcément renoncer à son utilité. »

    8.5.4 Prompts utilisés pour la recherche de sources de manière générale

    « Cherche-moi des sources fiables, de préférence officielles, académiques, institutionnelles ou issues de médias reconnus, sur le sujet suivant : <sujet>. »

    « Donne-moi plusieurs types de sources sur ce sujet : une source officielle, une source de vulgarisation sérieuse et, si possible, une source plus académique. »

    « Trouve-moi des sources en français si possible, mais tu peux aussi proposer des sources en anglais si elles sont plus solides. »

    « Évite Wikipédia et privilégie des liens que je peux vérifier moi-même. »

    « Donne-moi des sources adaptées à un travail scolaire sérieux, pas seulement des articles de blog. »

    « Trouve-moi aussi une vidéo en français sur YouTube si elle peut m’aider à mieux comprendre le sujet avant de lire les sources écrites. »

    8.5.5 Prompts utilisés pour vérifier ou renforcer la fiabilité des sources

    « Vérifie si cette source est suffisamment fiable pour un TPA et explique pourquoi. »

    « Analyse cette source selon plusieurs critères : auteur, date, organisme, crédibilité, objectif du document et limites éventuelles. »

    « Donne-moi une source plus solide ou plus officielle sur le même sujet. »

    « Cette source est-elle plutôt informative, scientifique, journalistique ou institutionnelle ? »

    « Est-ce que cette source semble biaisée ou orientée ? »

    « Résume-moi cette source sans inventer d’informations et distingue bien les faits des interprétations. »

    « Compare-moi rapidement ces deux sources et dis-moi laquelle semble la plus crédible pour un TPA. »

    8.5.6 Prompts utilisés pour l’aide à la formulation et à la rédaction

    « Réécris ce passage dans un style plus clair, plus fluide et plus scolaire, sans ajouter d’idée nouvelle : <texte>. »

    « Reformule ce paragraphe pour qu’il reste sérieux, mais compréhensible par une personne qui n’est pas spécialiste. »

    « Aide-moi à améliorer la formulation de ce passage tout en gardant mes idées de départ. »

    « Réécris ce texte de manière plus naturelle et plus propre, sans qu’il paraisse trop artificiel. »

    « Garde mon idée, mais rends le paragraphe plus logique et mieux construit. »

    « Propose une version plus fluide de cette phrase, sans la rendre trop compliquée. »

    « Aide-moi à éviter les répétitions dans ce passage : <texte>. »

    8.5.7 Prompts utilisés pour la correction orthographique et syntaxique

    « Corrige uniquement l’orthographe, la grammaire, la syntaxe et la ponctuation du texte suivant, sans changer le fond ni le sens : <texte>. »

    « Corrige ce passage en gardant mon style d’écriture et sans le rendre artificiellement trop soutenu. »

    « Vérifie les fautes de français dans ce texte sans en modifier le contenu. »

    « Corrige ce paragraphe, mais ne simplifie pas trop les idées. »

    8.5.8 Prompts utilisés pour l’aide à la structure du TPA

    « Aide-moi à structurer cette partie de mon TPA de manière plus logique, en gardant mes idées. »

    « Propose-moi un ordre plus cohérent pour ces paragraphes. »

    « Aide-moi à organiser cette sous-partie avec une progression claire : explication, exemple, analyse, transition. »

    « À partir de mes notes, aide-moi à construire un passage cohérent pour mon TPA. »

    « Vérifie si cette partie répond bien à ma question de recherche ou si je m’éloigne du sujet. »

    « Aide-moi à faire une transition entre cette partie et la suivante sans casser le fil du texte. »

    8.5.9 Prompts utilisés pour le développement du site web

    « À partir de ce contenu, propose une structure HTML claire et logique pour mon TPA sous forme de site web. »

    « Aide-moi à coder cette section en HTML/CSS/JS de manière propre, lisible et bien organisée. »

    « Propose une mise en page sobre, claire et adaptée à un travail scolaire. »

    « Garde une structure simple, compréhensible et facilement modifiable. »

    « Aide-moi à intégrer ce texte dans une section web sans perdre la hiérarchie des titres et sous-titres. »

    « Propose-moi une navigation claire entre l’introduction, les chapitres, la conclusion, la bibliographie et les annexes. »

    « Génère-moi un jeu de données fictif, cohérent et réaliste pour ma démo de TPA, sans utiliser de vraies données personnelles. Je veux plusieurs exemples variés, dans un format structuré et facilement exploitable en JSON. »

    8.5.10 Prompts utilisés pour la vérification et l’amélioration du code

    « Relis ce code et indique les erreurs possibles, les incohérences ou les points à améliorer, sans tout réécrire inutilement : <code>. »

    « Corrige ce bloc de code en gardant sa logique générale et explique brièvement ce qui posait problème. »

    « Vérifie si ce code correspond bien à ce que je veux afficher sur mon site. »

    « Dis-moi si cette structure HTML est propre et logique pour un site de TPA. »

    « Vérifie si mon CSS reste cohérent, lisible et pas inutilement compliqué. »

    « Signale-moi les éventuels bugs ou problèmes de robustesse dans ce script. »

    8.5.11 Prompts utilisés pour la relecture finale générale

    « Relis l’ensemble de mon TPA dans sa version finale et dis-moi s’il y a encore des passages trop techniques, pas assez clairs, trop lourds ou peu adaptés à un lecteur non spécialiste. Vérifie aussi la cohérence générale, la fluidité, le niveau de langue et la compréhension globale du travail. »

    9. Annexes

    Documents complémentaires liés au TPA.

    Les annexes rassemblent les éléments complémentaires liés au TPA.

    9.1 Transcription de l’interview

    L’interview ci-dessous a été réalisée avec Richard Bardy dans le cadre de ce TPA. Elle sert de base aux extraits cités dans le chapitre 2.

    Afficher la transcription de l’interview

    MB — Bonjour papa, cette interview est dans le cadre de mon TPA « Comprendre l’IA avec l’IA ». Est-ce que tu peux te présenter ?

    RB — Richard Bardy, je suis responsable d’un centre de service pour les pharmacies au sein du groupe Benu. Je suis en charge de la communication descendante, c’est-à-dire de tout ce qui part de la direction vers les pharmacies, et aussi de toutes les questions et demandes qui remontent des pharmacies vers la direction.

    MB — Si tu devais expliquer ton métier à une IA, comment tu le ferais ?

    RB — Je dirais à l’IA de réussir à résumer chaque semaine les informations de tous les départements du groupe, puis de les traduire dans un langage compréhensible. À l’inverse, elle devrait aussi réussir à compiler les questions qui viennent des pharmacies et à les distribuer au bon département pour que ce soit le plus efficace possible.

    MB — Quelles sont trois tâches principales que tu pourrais donner à l’IA ?

    RB — Comprendre les questions des pharmacies et les distribuer aux bonnes personnes ; compiler les informations importantes envoyées chaque semaine aux pharmacies et les résumer ; puis compiler les demandes répétitives pour en faire une sorte de catalogue.

    MB — Est-ce que vous utilisez l’IA chez vous au travail ?

    RB — Oui, surtout pour résumer et traduire. Certains départements l’utilisent aussi pour les vidéos et les images. Et l’IT doit aussi proposer à terme des solutions innovantes autour de l’IA.

    MB — Y a-t-il des domaines où vous ne l’utilisez pas ?

    RB — Oui. Comme nous sommes dans un groupe de pharmacies, certaines personnes n’ont pas le droit d’utiliser l’IA à cause des données sensibles. C’est notamment le cas de la qualité, où il y a des données sensibles, et des ressources humaines, à cause des données personnelles et salariales.

    MB — Un chatbot IA entre les pharmacies et Benu pourrait-il être utile ?

    RB — Oui, dans une certaine mesure. Il pourrait répondre aux nombreuses questions redondantes qui arrivent chaque jour. Pour ce type de demandes répétitives, l’IA pourrait être très pratique.

    MB — Selon toi, faudrait-il plutôt une IA publique ou une IA interne à Benu ?

    RB — Clairement une IA interne. Le groupe Phoenix développe justement un projet d’IA interne pour pouvoir prétraiter des données confidentielles sans qu’elles ne sortent du cadre de l’entreprise. Nous avons par exemple l’interdiction d’utiliser ChatGPT. On peut utiliser Copilot de manière restrictive, sans jamais transmettre de données sensibles.

    MB — Quels usages de l’IA te feraient gagner du temps sans trop de risques ?

    RB — Répondre aux questions basiques et non confidentielles des pharmacies, aider certains départements sur des tâches graphiques simples et soutenir des tâches répétitives qui n’impliquent pas de données sensibles.

    MB — Et à l’inverse, quels usages seraient trop risqués ?

    RB — Tout ce qui contient des données médicales liées à la clientèle, tout ce qui touche aux ressources humaines et aux données salariales, ainsi que certains domaines très spécifiques où une erreur d’interprétation peut changer fortement le sens de l’information.

    MB — Si tu devais écrire cinq règles pour encadrer un chatbot pour Benu, ce serait quoi ?

    RB — Ne jamais transmettre de données confidentielles. Ne jamais transmettre de données financières. Répondre de manière positive et polie. Faire le plus court possible. Et rester factuel, sans débordement émotionnel.

    MB — Pour finir, l’IA en entreprise, c’est surtout une opportunité ou un risque ?

    RB — Clairement une opportunité, parce qu’on n’y échappera pas et que cela peut faire gagner beaucoup de temps. Mais le risque, c’est qu’une information soit mal interprétée, mal distribuée ou mal traduite. À 99 %, le résultat peut être très bon, mais le petit pourcentage d’erreur restant peut suffire à poser problème dans des domaines sensibles.

    MB — Merci pour cette interview.

    RB — Avec plaisir.

    9.2 Déclaration d’honneur

    La déclaration d’honneur est disponible en annexe au format PDF. Vous pouvez cliquer sur le lien ci-dessous pour la télécharger.

    Télécharger la Déclaration d’honneur (PDF)