/

Les mesures à prendre dans l'impact de ChatGPT sur la stratégie numérique en Wallonie

  • Session : 2022-2023
  • Année : 2023
  • N° : 350 (2022-2023) 1

2 élément(s) trouvé(s).

  • Question écrite du 30/01/2023
    • de SCHYNS Marie-Martine
    • à BORSUS Willy, Ministre de l'Economie, du Commerce extérieur, de la Recherche et de l'Innovation, du Numérique, de l'Aménagement du territoire, de l'Agriculture, de l'IFAPME et des Centres de compétences
    ChatGPT est un modèle de traitement automatique du langage développé par OpenAI dont la presse a largement fait écho. Il se présente comme une révolution numérique susceptible d'automatiser des tâches, de permettre de gagner du temps, de basculer nos modes de fonctionnement et nos pratiques professionnelles et pédagogiques.

    Les implications d'un tel outil sont nombreuses notamment sur le plan éthique et dans les domaines de l'informatique, de la santé, de l'enseignement ou de l'économie. Cette innovation dans le domaine de l'IA offre de belles opportunités, mais comporte également des risques dont il faut prendre la mesure pour évaluer les éventuelles dérives quant à son utilisation.

    Aussi, il m'apparaît crucial d'anticiper les conséquences, d'autant que les avancées technologiques sont rapides : on nous annonce déjà une seconde version encore plus performante. Nous risquons d'être vite dépassés si aucune stratégie n'est mise en place.

    Monsieur le Ministre envisage-t-il d'évaluer l'incidence de tels outils pour la Wallonie et notamment sur le plan économique ?

    Quelle est sa vision pour encadrer l'utilisation de ChatGPT ? Quelles mesures compte-t-il mettre en place pour garantir la transparence, la responsabilité et l'éthique dans l'utilisation de ce type de technologies ?

    Une réflexion est-elle mise en place au sein de l'Agence du numérique sur cette thématique ? En particulier, ne serait-il pas opportun de mettre en place un plan de formation à destination des citoyens afin d'éduquer les utilisateurs sur les limites de ces modèles et sur les risques potentiels pour la vie privée et la sécurité ?

    Des mesures spécifiques ne devraient-elles pas être mises en place pour éviter la propagation de la désinformation ?

    En l'absence de formation adéquate à ce type d'outil, n'y a-t-il pas un risque de fracture numérique à anticiper entre d'une part ceux qui sont formés à utiliser les potentialités de l'outil et ceux qui n'y sont pas formés ?
  • Réponse du 22/02/2023
    • de BORSUS Willy
    ChatGPT est ce que l’on appelle un outil de traitement de langage. Dans les faits, cet outil ne représente qu’une des composantes fonctionnelles de l’Intelligence Artificielle (IA). Les composantes de l’IA qui sont les plus importantes et les plus utilisées sont celles de la vision par ordinateur et de l’automatisation des processus robotiques. C’est d’ailleurs prioritairement sur ces véritables modèles technologiques que se concentrent nos actions.

    Mon propos n’est pas de réduire ChatGPT à un gadget – ce serait totalement inexact - mais je souhaite d’emblée souligner que l’outil n’est pas représentatif de ce qu’est l’intelligence artificielle, ni de ce qu’elle représente au quotidien pour nos entreprises. ChatGPT est une démonstration exemplaire de ce dont est capable la technologie dans un domaine d’application très particulier. Rappelons d’ailleurs que l’outil a initialement été développé à des fins de recherche.

    Je suis évidemment impressionné par ces spectaculaires démonstrations. Les technologies de traitement de langage impacteront davantage le fonctionnement des entreprises et de l’enseignement dans les mois et années à venir. Cette technologie permet d’augmenter l’efficacité et la productivité, de créer de nouvelles opportunités d’emploi, mais aussi d’améliorer l’expérience client. De nombreuses organisations estiment que ces outils augmenteront spectaculairement leur productivité avec une dominance pour le secteur des soins de santé, de l’éducation, du marketing, des technologies et de la finance. Les tâches rédactionnelles et de développement informatique de faible niveau sont principalement concernées (Etude ChatGPT ).

    D’autre part, et outre les inquiétudes sur le plan éthique, ChatGPT constitue une crainte pour certains travailleurs notamment actifs dans des activités rédactionnelles qui craignent de perdre leur emploi ou a minima de devoir envisager une remise à niveau de leurs compétences ou une requalification à mesure que la technologie continue d'évoluer. À ce propos, je rappelle les résultats de l’étude « Be The Change » réalisée par Agoria qui nous apprenait que suivant leur analyse 126 000 emplois seront supprimés et que 477 000 nouveaux emplois seront créés d’ici 2030 en raison, notamment, de la digitalisation, des transitions énergétiques et des progrès technologiques (Jeroen Franssen : « La reconversion, c’est assurer le développement de tous »

    https://www.agoria.be/fr/societe/be-the-change/jeroen-franssen-la-reconversion-cest-assurer-le-developpement-de-tous). Quoi qu’il en soit, il ne fait aucun doute que l’IA bouleversera le monde du travail de manière grandissante, à l’instar de l’ordinateur jadis. À ce sujet, rappelons que le feuille de route européenne prévoit que 75 % des entreprises auraient adopté ou adopteront le cloud, le big data et l’IA en 2030.

    Je m’intéresse aussi aux applications concrètes qui sont de véritables leviers pour améliorer la compétitivité de nos entreprises et pour maximiser la plus-value des ressources humaines. En effet, au-delà des questions d’efficience et de compétitivité, l’IA permet de traiter des tâches répétitives et à faible valeur ajoutée alors que l’humain est capable de bien plus de choses. De par leur capacité limitée, ces technologies ne remplaceront probablement jamais le rôle de l’humain, mais elles seront petit à petit intégrées en support dans des tâches répétitives et à faible valeur ajoutée. L’enjeu est de faciliter la collaboration homme et machine et de positionner l’humain au cœur d’une organisation.

    Un autre impact dont un parle peu est l’aspect environnemental. Dans le cadre du programme DigitalWallonia4.ai, nous avons par exemple soutenu plusieurs projets visant à optimiser les paramètres d’équipements industriels dans le but de réduire la consommation d’énergie d’une organisation jusqu’à 15 %.

    Cela étant dit, je me joins volontiers aux propos de l’honorable membre quant à la nécessité de cadrer et de prévenir les usages indésirés ou inappropriés de l’IA. Il est indispensable de garantir une influence positive sur les processus de travail pour toutes les parties concernées. Par exemple, au-delà de la substitution de certaines tâches répétitives par la machine, l’expérience nous démontre que certains systèmes d’IA tels que ChatGPT peuvent devenir intolérants, voire discriminants, s’ils sont formés de manière irresponsable. Aussi, les questions éthiques et juridiques sont au cœur du programme DigitalWallonia4.ai piloté par l’Agence du Numérique. Ces questions sont traitées au travers de trois axes de la stratégie : l’axe sociétal, l’axe compétences et l’axe partenariats, recherche et innovation.

    Au niveau de l’axe sociétal, une étude d’impact de l’IA dans les administrations a été développée en collaboration avec le Centre de Recherche Information, Droit et Société - CRIDS de l’université de Namur. Elle a permis d’aboutir à des recommandations concrètes en lien avec les aspects de soutenabilité et de réglementations en matière d’IA.

    En ce qui concerne l’axe des compétences, DigitalWallonia4.ai poursuit des actions de sensibilisation et de formation avec l’aide des centres de compétences, mais également au travers de modules en ligne comme « Elements of AI », considérés comme une référence internationale en la matière. La composante de désinformation fait partie des programmes de formation.

    En outre, le Plan d’Inclusion Numérique, dont l’objectif est de réduire la fracture numérique, prévoit de doter les médiateurs numériques d’outils et de formations spécifiques afin de préparer et sensibiliser les citoyens aux nouvelles technologies.

    L’axe partenariats, recherche et innovation établit notamment la collaboration entre DigitalWallonia4.ai et le groupe de travail « AI, ethics and law » qui concerne l’élaboration et l’évolution des règlementations en matière juridique et d’éthique. Enfin, le projet de recherche « ARIAC by DigitalWallonia4.ai », que nous avons financé à hauteur de 32 millions d’euros, se décompose en quatre orientations dont la moitié vise à minimiser les dérives de l’IA et à contribuer au développement d’une IA « éthique et digne de confiance ».

    Au-delà du travail qui est mené en Wallonie, la Commission européenne travaille activement sur 3 règlementations. Il y a bien sûr le RGPD, mais aussi le Data Governance Act qui définit un cadre précis sur l’échange des données à caractère personnel et non personnel, ainsi que l’IA Act qui établit une classification des systèmes d'IA avec différentes exigences et obligations adaptées à une approche fondée sur les risques.