Plateformes de veille
Après le rachat de QWAM en mars dernier, la plateforme de veille Chapsvision, parfois qualifiée de “Palantir européen” annonce le rachat de Geotrend, une autre plateforme spécialisée dans l’analyse sémantique.
Sur la scène des autres plateformes de veille, des solutions émergent également, comme Algorithma ou encore Niiwaa. Ce dernier outil de veille fonctionne sur le même principe qu’un moteur de recherche.
Cyberdéfense
Concernant les outils de recherche inversée de visages, les récents tests comparatifs de la revue NetSources suggèrent que Betaface serait la technologie qui mettrait le plus l’accent sur la biométrie. FaceCheck est également une source performante pour retrouver quelqu’un sur le web à partir de la photo de son visage.
Pour d’autres types d’enquêtes, DarkBERT, est une sorte de ChatGPT modélisé à partir de corpus en provenance du dark web. Cette intelligence artificielle permet, par exemple, de détecter des fuites de données.
Plus globalement, les cyberattaques auraient coûté pas moins de deux milliards d’euros aux organisations françaises en 2022 dont 888 millions sous la forme de rançons. De son côté, Viginum a récemment pointé le rôle de la Russie dans une campagne de désinformation. Viginum a ainsi identifié des faux sites du Monde, du Figaro, du Parisien ou de 20 minutes. L’Assemblée a voté un élargissement des prérogatives de l’Agence nationale de la sécurité des systèmes d’information dans le cadre de la loi de programmation militaire. L’Anssi pourra désormais bloquer, suspendre ou rediriger les noms de domaine et accéder aux données en cache. Et pour sa part, le Sénat a adopté une proposition de loi pour expérimenter pendant trois ans la reconnaissance faciale dans l’espace public.
Intelligence artificielle
Selon l’OCDE, près d’un emploi sur quatre sera « remis en question » par l’intelligence artificielle d’ici à dix ans. Après les métiers d’ouvriers du secteur industriel, ce sont, aujourd’hui, les métiers intellectuels du secteur tertiaire qui sont concernés.
Dans la fonction publique, l’État va expérimenter, à l’automne, des concurrents de ChatGPT pour répondre aux questions des usagers.
Du côté des professionnels de l’information, un intéressant article de NetSources recommande, pour bien “prompter”, d’indiquer le rôle demandé à l’intelligence générative, mais aussi le contexte, l’objectif, la taille du texte demandé et sa tonalité. Il recommande aussi le dialogue itératif avec ChatGPT.
Intelligence Artificielle et politiques publiques
Les géants de l’Intelligence Artificielle chercheraient aujourd’hui à influencer la réglementation européenne. Ainsi, Google a suspendu l’ouverture de Bard en Europe pour des raisons juridique, mais aussi probablement pour envoyer un signal. Sam Altman, le cofondateur de OpenAI a déclaré que sa société allait essayer de se conformer à l’AI Act européen. Mais il a aussi demandé à ce que ses contraintes techniques soient prises en compte. La société à l’origine de ChatGPT, aurait effectué un lobbying intense pour que la régulation européenne à venir soit la plus clémente possible.
Pour leur part, l’Europe et les États-Unis veulent un « code de conduite » volontaire sur l’intelligence artificielle. Les contenus générés par l’IA générative devraient, en effet, être étiquetés, afin de prévenir les abus potentiels de la technologie et les risques de désinformation, selon la commissaire vice-présidente de la Commission européenne Vera Jourová. Le 14 juin, les députés européens ont aussi validé l’interdiction de l’identification biométrique dans l’espace public en temps réel mais aussi les technologies de reconnaissance des émotions et de police prédictive et le recours à ces technologies pour la gestion des frontières.
Au Japon, afin de favoriser le développement de l’intelligence artificielle, le droit était plutôt permissif quant à l’utilisation des contenus dans l’apprentissage des modèles d’intelligence artificielle. Néanmoins, le gouvernement japonais a récemment publié une déclaration sur l’IA et la réglementation du droit d’auteur qui montre que le risque pour les créateurs de contenus a finalement été récemment reconsidéré.
En France, une directive européenne de 2019 sur le droit d’auteur transposée dans notre pays, a permis aux intelligences artificielles de collecter légalement des contenus sous droits pour s’entraîner et produire ses modèles. Les auteurs et les éditeurs ont aujourd’hui parfois le sentiment de s’être fait piller. Ainsi, le Syndicat national de l’édition a adopté une attitude assez défensive face au risque de voir la consommation des contenus des éditeurs diminuer. En effet, les analyses produites par ChatGPT à partir des contenus des éditeurs utilisés en tant que corpus d’apprentissage pour l’intelligence artificielle risque d’en diminuer la consommation directe. Dans ces conditions la consommation indirecte et en masse pourrait faire un jour l’objet d’une rémunération collective des auteurs…
En attendant, la position défensive des producteurs de contenus pourrait ne pas être sans conséquences pour les analystes de gros volumes de données textuelles et pour les veilleurs qui cherchent à automatiser la surveillance des sources de contenus…
Illustrations utilisées
4- https://www.betafaceapi.com
6- https://arxiv.org/abs/2305.08596
7- https://www.pexels.com/fr-fr/video/gens-nuit-smartphone-sombre-6963746
8- https://www.pexels.com/fr-fr/video/homme-jouer-technologie-echecs-8327799
10- TechCrunch, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via https://commons.wikimedia.org/wiki/File:Sam_Altman_TechCrunch_SF_2019_Day_2_Oct_3_%28cropped%29.jpg
11- Photographer: Lukasz Kobus, Attribution, via https://commons.wikimedia.org/wiki/File:V%C4%9Bra_Jourov%C3%A1_-_2023_(cropped).jpg
13- https://www.sne.fr/actu/une-clause-type-pour-sopposer-a-la-fouille-de-textes-et-de-donnees-par-les-intelligences-artificielles