Trois mythes sur les enfants et les algorithmes

Qu’est-ce que YouTube Kids et ClassDojo ont en commun?

Alors que de plus en plus de développeurs perfectionnent leurs outils d’analyse d’apprentissage, leurs systèmes de gestion de classe et leurs recommandations de lecture personnalisées, réfléchissons de manière critique aux hypothèses plus générales qui sous-tendent la conception actuelle des algorithmes.

Il ne fait aucun doute que les algorithmes sont essentiels à la fonctionnalité d’Internet. Grâce à l’apprentissage automatique, les algorithmes peuvent automatiser les recherches et utiliser le Big Data pour fournir des recommandations personnalisées susceptibles de rendre l’apprentissage des enfants plus efficace. Mais l’expression «BIBO Algorithms» (Bias In et Bias Out) explique bien que même les algorithmes les plus puissants développés par le groupe FANG (Facebook, Amazon, Netflix et Google) ne sont pas exempts de biais et d’erreurs.

Le désir de l’industrie d’éduquer les enfants et d’éliminer les préjugés existe bel et bien, mais le problème est beaucoup trop complexe à résoudre du jour au lendemain. La preuve d’un biais inconscient et même intentionnel, propagé par l’IA dans des systèmes pour adultes, devrait constituer un avertissement suffisant avant que nous ne nous précipitions dans l’éducation algorithmique. Voici quelques questions que pourraient poser les adultes et quelques idées fausses pour nous aider à évaluer l’importance des algorithmes dans l’apprentissage des enfants:

1. L’introduction d’algorithmes dans notre classe / famille améliorera l’apprentissage des enfants.

Le problème des recommandations personnalisées a été pleinement exposé par rapport aux bulles de filtres en ligne. Les algorithmes étant conçus pour agréger un contenu similaire, ils créent des chambres d’écho sur les médias sociaux et dans les flux d’actualités. Adopter le même modèle d’apprentissage signifie que les enfants sont moins exposés aux défis cognitifs et aux choses qu’ils n’aiment pas. Cela pourrait être bénéfique pour leur motivation et leur engagement, mais pour apprendre à rester, les enfants devraient recevoir des concepts qui étirent leur esprit et ne correspondaient pas toujours à leurs préférences.

Certains fournisseurs reconnaissent ces limitations et au lieu de personnaliser le contenu, leurs algorithmes recommandent les mêmes sujets à un rythme différent ou dans un ordre différent. Des algorithmes plus avancés commencent à élargir les horizons des enfants, car ils recommandent un contenu de difficulté croissante. Ceci, cependant, ne pourrait fonctionner que dans un environnement d’apprentissage approprié, où il existe une base de données solide pour accueillir les plus performants et les moins performants. Il serait beaucoup trop ambitieux, à ce stade, d’attendre un algorithme aussi sophistiqué pour l’ensemble du système éducatif sans se heurter au problème de la fausse nouvelle.

2. Les recommandations personnalisées démocratisent l’apprentissage des enfants.

    Lorsque nous accédons à Internet, nous utilisons tous des algorithmes, et leur utilisation continue les rend plus intelligents. Notamment, la base d’utilisateurs actuelle est beaucoup plus grande que la base de développeurs d’algorithmes. Quelques milliers de personnes sont responsables de la prise de décision qui affecte des milliards de personnes dans le monde. En conséquence, les géants de la technologie sont en avance sur la compréhension du fonctionnement des algorithmes par le grand public. Même certains sénateurs américains ne semblent pas savoir comment fonctionne l’économie algorithmique, comme l’a démontré l’audience du comité sénatorial de Mark Zuckerberg.

    Natalia Kucirkova, DigiLitEY

    DigiLitEY: Les enfants et les algorithmes

    Source: Natalia Kucirkova, DigiLitEY

    En termes simples, la conception actuelle des algorithmes est méritocratique et non démocratique. Appliqué à l’éducation, cela signifie que ceux qui ont un avantage initial, à savoir ceux qui ont des connaissances préalables, vont en bénéficier et peuvent développer davantage ces connaissances. En effet, les algorithmes s’adaptent à l’enfant et n’instruisent pas l’enfant. Si les algorithmes avaient été conçus avec des principes démocratiques, ils seraient transparents de par leur conception et davantage axés sur la communauté. Tout le monde pourrait voir ce qui est recommandé et pourquoi. Tout le monde serait capable de modifier les mécanismes et leur pouvoir serait réparti équitablement et équitablement.

    3. Les algorithmes assurent la sécurité en ligne des enfants.

    Pour éviter la prolifération de vidéos dérangeantes destinées aux jeunes enfants, Google et Facebook ont ​​investi dans un grand nombre de modérateurs et de vérificateurs de contenu humain. Cependant, même les administrateurs de YouTube for Kids reconnaissent correctement qu’aucun filtre n’est précis à 100%. Une utilisation totale du «mode restreint» de YouTube ne garantira donc pas que votre enfant ne verra pas de vidéos dérangeantes de Peppa Pig. Le fait qu’il y ait plus de créateurs de contenu potentiels et, malheureusement, beaucoup de personnes aux intentions malveillantes, est tout simplement une réalité, que ceux qui signaleraient des vidéos abusives. L’interdiction et la censure émanant d’organismes de réglementation nationaux et internationaux ne constituent pas non plus une solution complète. Encourager un modèle garantissant la sécurité des enfants aux dépens de la liberté d’exploration constituerait un pas en arrière. Une nouvelle série d’algorithmes, de contrôles de qualité et de réglementations communautaires devra être développée pour assurer un équilibre entre les contributions créatives et la protection des utilisateurs vulnérables.

    On nous dit souvent que «l’IA est l’avenir», mais aussi qu’une «poignée de sociétés de technologie contrôlent des millions d’esprits». Si nous voulons que les algorithmes d’intelligence artificielle améliorent l’avenir de tous les enfants, nous devons appuyer sur le bouton pause de l’enfance algorithmique et réfléchir de manière critique à ce qui attire l’attention des enfants. Nous avons besoin d’algorithmes transparents qui correspondent au contenu soigneusement sélectionné pour répondre aux préférences et aux besoins des enfants avec ceux de la communauté plus large. Ce n’est pas une vision technophile idéalisée de quelques universitaires. C’est une condition essentielle pour que l’éducation personnalisée ne se transforme pas en une éducation commercialisée.

    Références

    Le Commissariat aux enfants (2018). Qui sait et moi? Un rapport du Commissaire à l’enfance sur la collecte et le partage de données sur les enfants, https://www.childrenscommissioner.gov.uk/wp-content/uploads/2018/11/who-knows-what-about-me.pdf

    Kucirkova, N., Fails, J., Pera, S. Huibers, T. (2018) Algorithmes pour les enfants: ce que les parents et les éducateurs doivent savoir, DigiLitEY, Royaume-Uni: http://digilitey.eu/publications/digilitey-publications

    Manolev, J., Sullivan, A. et Slee, R. (2018) Les données de la discipline: ClassDojo, la surveillance et une culture de la salle de classe performative, Apprentissage, Médias et technologie, DOI: 10.1080 / 17439884.2018.1558237.