Unité 2 : Compétences en EMI à l’ère de l’IA et des réseaux sociaux
Thèmes clés
- En quoi les compétences en EMI s’appliquent-elles à l’IA et aux réseaux sociaux ?
- Quelles sont les compétences nécessaires pour l’IA et les réseaux sociaux ?
- Les compétences en EMI sont-elles les mêmes que celles requises pour l’IA et les réseaux sociaux ?
- L’application des compétences en EMI à l’IA et à l’environnement des réseaux sociaux.

Objectifs d’apprentissage
Une fois cette unité terminée, les éducateurs et les apprenants seront capables de :
- Décrire comment, en étant éduqués aux médias et à l’information, les apprenants peuvent mieux comprendre le contexte social de l’IA et comment interagir de manière critique avec les systèmes d’IA
- Identifier et décrire les compétences requises pour l’IA et les réseaux sociaux et leurs relations avec l’EMI.
- Comprendre comment appliquer les compétences en EMI à l’IA et aux environnements des réseaux sociaux et identifier les outils et ressources qui peuvent aider dans ce contexte
Niveau de compétences visé dans cette unité
- ɱôé³¾±ð²Ô³Ù²¹¾±°ù±ð
Préoccupations et liens
Lorsque les concepts d’éducation aux médias et d’éducation à l’information ont été inventés, dans les années 1930 et 1960 respectivement, les réseaux sociaux et l’IA qui dominent dans une large mesure nos moyens de communication d’aujourd’hui n’existaient pas encore. En fait, l’ordinateur tel que nous le connaissons aujourd’hui n’existait pas non plus. Les préoccupations portaient alors sur la vérification des informations et des messages de propagande politique transmis par les médias traditionnels tels que la radio et la télévision. Il était toutefois tout aussi nécessaire de comprendre les questions de représentation dans les médias (voir le Module 6), la façon d’interagir avec la publicité et les actualités, et comment les messages des médias étaient construits pour représenter la réalité (voir le Module 10). Avec l’avènement d’Internet, des réseaux sociaux et des systèmes d’IA, ces préoccupations fondamentales demeurent. Elles ont toutefois été renforcées et complexifiées car les nouvelles technologies, utilisées dans des modèles commerciaux particuliers, ont transformé la façon dont les individus entrent en contact, interagissent socialement, et apprennent et comprennent le monde qui les entoure. Les réseaux sociaux, par exemple, encodent les interactions sociales sous forme de texte (messages écrits, images, audio, vidéo, art, émojis, mentions « J’aime », partages, etc.). Une fois encore, ces symboles ne sont pas entièrement nouveaux, mais les réseaux sociaux les proposent en plus de la forme classique de communication en face à face, qui nécessite généralement que les personnes soient en contact dans différents endroits physiques, mais est désormais possible dans des endroits virtuels communs. Cela implique des participants qui se connaissent ou non, et qui disent et partagent des choses qui changent souvent sous l’influence de la culture et des expériences*. L’ajout de l’IA aux réseaux sociaux et aux dispositifs et plateformes technologiques élargit encore les préoccupations mentionnées ci-dessus et en soulève de nouvelles. Cela s’explique par le fait que les systèmes d’IA facilitent la collecte d’immenses quantités de données, qu’ils traitent et dont ils tirent des enseignements, qui à leur tour permettent ou déterminent une prise de décisions qui peut avoir des résultats positifs ou négatifs pour les citoyens ordinaires.
* Livingstone, S. (2014) Developing social media literacy: How children learn to interpret risky opportunities on social network sites. Communications. The European Journal of Communication Research, 39(3): 283–303
Figure 11.1
Caractéristiques fondamentales des systèmes d’IA
Source : Contenu adapté de Long, B. et Magerko, D. (2020) : CHI ‘20, 25 - 30 avril 2020, Honolulu, HI, USA © 2020 Copyright détenu par le(s) propriétaire(s)/auteur(s). Droits de publication concédés sous licence à ACM. ACM 978-1-4503-6708-0/20/04… $15.00

Tableau 11.1
Utilisation de l’EMI pour répondre aux préoccupations soulevées par l’utilisation de l’IA et des réseaux sociaux
Le Tableau 11.1 ci-dessous décrit certaines des préoccupations concernant les réseaux sociaux et les systèmes d’IA et la façon dont l’EMI contribue à les atténuer. La section suivante porte sur certains des nombreux avantages de l’IA.
Approches et activités pédagogiques
Comme nous l’avons vu plus haut dans la Partie 1 de ce programme, plusieurs approches pédagogiques sont possibles. Veuillez vous référer à la liste fournie dans la Partie 1 et décider quelle approche appliquer aux activités proposées ci-dessous et aux autres activités que vous pourriez élaborer.
- Organisez des discussions, des débats, d’autres activités de groupe et des jeux, et utilisez les réseaux sociaux en relation avec les 13 points du Tableau 11.1. Assurez-vous de tirer parti des activités pertinentes dans les différents modules mentionnés dans le tableau et de traduire ces activités de manière à ce qu’elles soient axées sur l’IA.
- Les bots sont des programmes informatiques pilotés par des systèmes d’IA. Les internautes interagissent avec des bots en ligne à l’écrit ou à l’oral. Regardez cette vidéo YouTube sur les bots avec vos apprenants : . Demandez aux apprenants d’indiquer, parmi les bots populaires mentionnés dans la vidéo, celui ou ceux qu’ils utilisent fréquemment. Demandez-leur de partager leurs expériences et leurs préoccupations.
- Concentrez-vous sur les utilisations positives des bots, puis discutez des utilisations négatives potentielles.
- Si l’IA peut être utilisée pour lutter contre la mésinformation et la désinformation, elle peut également être utilisée pour les diffuser. Une étude du Parlement européen, intitulée « Automated Tackling of Disinformation » (ajouter l’année) (consulter le Module 4 pour en savoir plus sur la mésinformation et la désinformation) montre que les faux comptes et les bots sont largement utilisés dans les stratégies de manipulation des réseaux sociaux pour mener des attaques contre les partis d’opposition, publier des messages perturbateurs ou se livrer au trolling et au harcèlement. Les éducateurs doivent guider les apprenants afin qu’ils recherchent d’autres études similaires dans leur région ou pays. Ces études existent-elles ? Quelles sont certaines de leurs conclusions ? Des mesures politiques sont-elles prises pour donner suite à ces conclusions ? Quelles sont les actions concrètes mises en œuvre aux niveaux national et communautaire pour tenir compte de certaines de ces conclusions ?
- Planifiez une visite, dans la mesure du possible, dans les locaux des autorités compétentes (telles que le/les ministères responsables de ces questions).
- Vous pouvez également planifier une série d’interventions d’experts de ce domaine dans l’environnement d’apprentissage pour des entretiens avec les éducateurs et les apprenants.
- Les éducateurs devraient souligner l’importance de l’engagement dans la promotion de l’implication des femmes dans l’IA en particulier, et dans les sciences et les technologies en général. Pour en savoir plus sur des organisations telles que Women in AI (WAI), rendez-vous sur . WAI est une ONG d’action dont le mandat est d’accroître la représentation et la participation des femmes dans l’IA. Recherchez d’autres organisations similaires.
- Après la lecture de l’article de Kim Nelsson sur le blog Forbes, , animez une discussion. Mme Nelsson est entrepreneuse et PDG de Pivigo, le plus grand centre de science des données d’Europe. Recherchez d’autres blogs ou articles connexes provenant d’experts locaux ou d’autorités compétentes de votre pays et région. Analysez les articles sélectionnés. Sont-ils basés sur des opinions ou sur des faits ? Sont-ils justes ou exclusivement optimistes/pessimistes à propos de l’IA ? Les arguments sont-ils étayés par des éléments de preuve ? Avec quoi êtes-vous d’accord ou non ? Pourquoi ? Comment pouvez-vous vous engager en faveur de l’action et du changement ? Existe-t-il des entités locales que vous pouvez contacter pour stimuler l’action et le changement ?
- Il est arrivé que des personnes soient attaquées et tuées à cause de la mésinformation et de la désinformation à leur sujet sur les réseaux sociaux.
- Les participants lisent une histoire locale ou internationale et sélectionnée par le formateur au sujet des systèmes d’IA et de leurs liens avec la mésinformation et la désinformation, avant d’en discuter. Demandez aux apprenants de partager ce qui leur a traversé l’esprit tandis qu’ils lisaient. Quel est leur ressenti ? Croient-ils que cette histoire est vraie ? Pourquoi, qu’est-ce qui la rend crédible ? Que se passe-t-il lorsque des systèmes d’IA sont utilisés pour créer et diffuser de la mésinformation et de la désinformation ? Que peut-on faire pour arrêter la propagation de la mésinformation et de la désinformation par l’IA et les algorithmes ? Pour la dernière question, les apprenants doivent réfléchir aux mesures personnelles/individuelles qu’ils peuvent prendre, ainsi qu’aux mesures possibles de la part d’autres parties prenantes (gouvernements, entreprises de communication numérique, etc.). Pour chaque mesure proposée, discutez des implications potentielles selon les points de vue de différentes parties prenantes.
- Recherchez deux cas où des contenus faux et trompeurs créés par des systèmes d’IA ou des bots ont causé des dommages psychologiques ou physiques aux personnes. Discutez-en avec les apprenants en suivant les mêmes grandes lignes.
- Des chercheurs ont effectué des expériences sur l’effet de la mésinformation sur les individus. Dans une étude, une équipe de recherche (Loftus, E. F., Miller, D. G., et Burns, H. J. 1978. Semantic integration of verbal information into a visual
memory. Journal of Experimental Psychology: Human Learning and Memory, 4(1), 19–31. ) « a montré aux participants des photos d’un accident de voiture, puis a fait lire aux participants des informations inexactes ou trompeuses sur l’accident. L’expérience a démontré que les participants assimilaient facilement ces informations erronées et faisaient des erreurs lorsqu’on leur demandait ultérieurement des informations sur l’accident ». (Reboot Foundation, Elevating Critical Thinking, ) Discutez avec les apprenants des facteurs qui conduisent à l’assimilation de fausses informations. Ces facteurs comprennent la mémoire, l’expérience passée, les émotions (peur, anxiété, appréhension, doute), les préjugés, les attentes, etc. Demandez aux apprenants de réfléchir et de partager leurs expériences. - Divisez les apprenants en plusieurs groupes. Demandez-leur de créer un élément de désinformation dans la forme de leur choix (actualité, récit, témoignage oculaire inventé, image, vidéo). Demandez ensuite à chaque groupe de présenter son travail aux autres. Discutez de la crédibilité de chaque information. Qu’est-ce qui rend l’information crédible ou non ? Quels sont les effets potentiels de la diffusion de ce genre de fausse information ? Quels algorithmes la capteraient et qu’est-ce qui l’amplifierait ?
- Étudiez les 13 préoccupations liées à l’IA recensées dans le Tableau 11.1 ci-dessus. Planifiez des activités autour de ces questions en fonction de leur pertinence par rapport à votre pays et de leur intérêt pour le groupe d’apprenants avec lequel vous travaillez.
- Répartissez les apprenants en groupes et demandez-leur de faire des recherches documentaires pour recueillir plus d’informations et d’exemples auxquels peuvent être appliqués les conseils suivants en matière d’identification des hypertrucages. Pour en savoir plus sur le projet Media Lab du MIT et sur les conseils donnés ci-dessous, rendez-vous sur : . Consultez le Module 4 pour en savoir plus sur la mésinformation et la désinformation.
- Faites attention aux transformations ou aux déformations faciales. Par ailleurs, les poils sur le visage ont-ils l’air réel ou apparaissent-ils là où ils ne devraient pas y en avoir ? Sont-ils absents ailleurs ? Les grains de beauté et marques sur le visage ont-ils l’air réel ? Leur taille et leur couleur correspondent-elles au reste du visage de la personne ?
- Vérifiez si la peau semble trop lisse ou trop ridée sur les joues et le front. Le vieillissement des cheveux correspond-il à celui de la peau et des yeux ?
- Des ombres apparaissent-elles sur le visage, les yeux et les sourcils, là où l’on ne s’attend pas à en voir ? Si la personne porte des lunettes, renvoient-elles des reflets, et ces reflets changent-ils quand la personne bouge ? La personne cligne-t-elle des yeux trop souvent ou pas assez ? « Souvent, les hypertrucages ne parviennent pas à produire entièrement la représentation physique naturelle d’une scène ou de l’éclairage. » ()
Comme mentionné ci-dessus, la détection des hypertrucages nécessite parfois une expertise et des compétences particulières semblables à celles utilisées en criminalistique. C’est pourquoi les éducateurs et les apprenants devraient en discuter et s’entrainer afin de devenir compétents au fil du temps. Il est tout aussi important d’être conscient de la possibilité de préconiser que les entreprises déploient des ressources pour identifier ces contenus et les soumettre à la modération en les désignant pour ce qu’ils sont, par exemple, et expliquent les conditions de cette désignation et les moyens de la contester.
- Plusieurs compétences liées à l’IA et aux réseaux sociaux (voir le Tableau 11.1) peuvent être acquises à partir de diverses sources. Planifiez diverses activités autour de chacune de ces compétences. Précisez dans chaque cas la façon dont les compétences en EMI sont liées ou peuvent être appliquées. Demandez aux apprenants de présenter des arguments en rapport avec d’autres questions, comme dans la troisième colonne du Tableau 11.1 ci-dessus. Partagez tout ou partie de votre tableau ainsi rempli sur les réseaux sociaux en taguant @MILCLICKS ou envoyez un e-mail à MIL CLICKS à l’adresse : milclicks@unesco.org.