FramamIA

Comprendre l'IA pour la démystifier

1. L'IA c'est technique, donc politique !

Ni apocalyptique, ni récent

De Shakey the robot (premier robot qui raisonne sur ses actions, Stanford, 1966) à ChatGPT en passant par Clippy (l'assistant de Microsoft Office 97)... l'Intelligence artificielle a plus de 70 ans d'histoire.

Voire plus encore : nos cultures ne manquent pas de mythes et symboles où la magie permet d'humaniser des machines. La légende du Golem, Edward aux mains d'argent, l'emoji ✨ désignant l'IA dans la tech…

Présentée simultanément comme la baguette magique qui va sauver la terre et comme la boite noire qui va asservir l'humanité, l'IA désigne pourtant, aujourd’hui, un domaine technique du numérique.

Comprendre pour choisir collectivement

Or derrière chaque outil technique, il y a un contexte idéologique et des choix politiques, qui peuvent transformer l’organisation de nos sociétés.

Aujourd'hui, ces choix sont monopolisés par de grandes entreprises dont le discours grandiloquent mystifie, sidère, envoûte... nous ôtant la capacité de s'emparer du sujet et questionner les choix.

L'objectif de ce site est de partager des clés de compréhension sur ce qu'est l'IA aujourd'hui, des enjeux que ce domaine du numérique pose à nos sociétés et enfin des questions à se poser pour déterminer si tel outil est digne de notre confiance.

Mème Clippy « avez-vous besoin d'aide pour déclencher l'apocalypse ? »

2. Mieux comprendre l'IA

2.1 L'IA c’est quoi ?

Pour définir ce qu'on entend aujourd'hui par « intelligence artificielle », on peut se référer à la définition qu'en donne le Parlement Européen :

« possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

Du code et des maths

L’IA est un vaste domaine rassemblant « une famille de technologies et de méthodes mathématiques (des algorithmes) qui vise à permettre à des machines de simuler ou de s’inspirer des processus cognitifs des êtres humains (aprentissage) pour réaliser des tâches ». Ces tâches sont la représentation du savoir, la résolution de problèmes, la compréhension, la perception (vision, ouïe), la planification et la prise de décision, la communication et la production de contenus.

Dans nos vies

L'IA touche d'innombrables aspects de notre vie quotidienne et passe souvent complètement inaperçue pour celles et ceux qui n'ont pas une compréhension ou une conscience profonde de la technologie et de la façon dont elle est mise en œuvre : assistants numériques (chatbots, dont ChatGPT), assistants vocaux, recommandations personnalisées sur les sites e-commerce et de streaming, guidage GPS et enceintes connectées sont des exemples de l’IA utilisés dans notre quotidien.

Google Home, vu par Gee (CC BY-SA)

2.2 Comment ça marche ?

L'IA aujourd'hui en France

Au quotidien

Selon un sondage de février 2023, 36 % des Français·es trouvent que l'IA est un concept flou. Néanmoins, parmi les sondé·es, beaucoup l'utilisent déjà, en particulier pour la traduction.

En entreprise

Dans les entreprises aussi, l’IA est de plus en plus utilisée : fin 2024, on estime que 30 à 40 % des entreprises françaises utilisent ou créent des IA. L’étude Hopes and Fears 2024 de PwC montre que 48 % des salariés français ont déjà utilisé une IA générative dans leur cadre professionnel et qu'ils sont déjà 21 % à l'utiliser au moins une fois par mois.

Selon l'activité

Les usages de l'IA varient en fonction du secteur d'activités : si les entreprises technologiques l'ont fortement intégrée (88 %), c'est un peu moins le cas dans d'autres secteurs.

2.3 Pas une IA mais des IA

Il existe deux principaux types d’IA : l’IA spécialisée et l’IA polyvalente. Tandis que l’IA spécialisée peut réaliser une tâche spécifique, l’IA polyvalente, elle, peut en réaliser plusieurs dans divers contextes.

IA spécialisée

Les modèles d'IA spécialisée sont des IA qui sont très performantes sur une tâche précise, mais incapables d’effectuer d’autres tâches qui nous paraissent pourtant dérisoires. Pendant longtemps, nous n’étions capables que de développer des IA spécialisées. Par exemple, AlphaGo Zero est un système d’IA faible développé par Google pour jouer au jeu stratégique de Go qui a battu le meilleur joueur de Go du monde en 2018. Malgré les impressionnantes capacités du système, AlphaGo Zero est incapable de jouer à d’autres jeux de stratégie comme les dames ou les échecs.

IA polyvalente

Les modèles d’IA polyvalente (non-spécialisée) sont capables de réaliser une multitude de tâches dans des contextes très variés. Les modèles de fondation, comme GPT-4, sont des IA polyvalentes, par leur capacité à être réutilisés et adaptés à un large panel d’usage précis (produisant in-fine de l'IA spécialisée). Ces modèles sont complexes et très coûteux à développer. L'intelligence artificielle générale, AGI, ou encore ou IA forte, désigne une IA polyvalente capable de réaliser n'importe quelle tâche cognitive aussi bien que les humains. Il n'existe pas d'AGI aujourd'hui.

2.4 Les grandes familles d'IA

Notre sélection d'articles sur le fonctionnement de l'IA

Voir notre veille sur cette thématique

3. Impacts d'une IA capitaliste

L'essor de l'IA générative et des grands modèles de langages provient dans un monde numérique monopolisé par les plateformes des géants du web, et organisé par le capitalisme de surveillance. Derrière les outils, il y a donc une idéologie, un système d’organisation économique et politique, et les impacts mondiaux qui en découlent.

3.1 L'IA, une économie comme les autres ?

Capitalisme algorithmique

Avec les innovations récentes (IA générative, etc.), on observe l'émergence du capitalisme algorithmique. Il repose sur l’extraction massive de données personnelles, le développement accéléré d’algorithmes, l’hégémonie des plateformes, une refonte du monde du travail et l’arrivée de systèmes décisionnels automatisés dans nos sphères sociales. L’IA est une industrie de la rentabilité : elle vise à réduire les coûts partout où c'est possible, afin de générer de nouveaux monopoles économiques.

Bulle financière

L'IA nécessite des investissements gigantesques en infrastructure. Pensée par les géants de la tech comme une autre source de profits, on ne sait toujours pas comment ils comptent gagner de l'argent. Des start-up (Inflection AI, Character AI, Adept AI, etc.), ont aussi intégré le secteur, via des investissements massifs. Faute de modèle économique viable, elles perdent leurs investisseurs et peinent à assurer les coûts d’entraînement et d’inférence des modèles d’IA.

Un marché juteux

Le marché de l'IA représentait 241 milliards de dollars en 2023 : l'impact de son essor sur l'économie reste à identifier. En 2024, le marché de l’infrastructure (cartes graphiques, serveurs, etc.) est estimé à 68,46 milliards USD. Nvidia (producteur de semi conducteurs aux USA) a ainsi vu son CA augmenter de 125,85 % et sa valorisation dépasser les 3.000 milliards USD. Nvidia détient 90 % du marché des composants qui font fonctionner les IA génératives, mais ne peut pas suivre le rythme des commandes.

3.2 Extractivisme, pillage et appropriation

Prenant son essor dans le capitalisme de surveillance qui a fait naître les GAFAM, l'industrie de l'IA perpétue et démultiplie les dynamiques extractivistes du numérique. Nature (sous-sol des pays riches en ressources), données, créations, travail... Tout s'exploite.

Nos posts en pâture

Les géants de la tech ont confirmé exploiter les informations publiques de leur utilisateur⋅ices pour former des modèles d’IA, mais les précisions fournies au sujet des processus de collecte et du volume exact de données traitées sont rares. Ce n'est que sous la pression lors d’une enquête menée par des autorités locales sur l’adoption de l’IA que Meta (Facebook, Instagram) a révélé alimenter depuis 2007 ses modèles d'IA avec l’intégralité des publications et commentaires rendus publics sur Facebook et Instagram.

« J'accepte tout »

Si certaines entreprises se conforment aux réglementations sur la confidentialité des données (RGPD) en mettant discrètement à jour leurs conditions d’utilisation et leurs politiques de confidentialité, il n'est pas garanti qu'elles soient connues des utilisateur⋅ices et encore moins que ces dernier⋅es puissent s'opposer à cette exploitation.

Chalutage du web

Les IA s'accaparent également de grandes quantités de données publiées sur le web sans demander l’autorisation de les exploiter aux ayants droit. Ce non-respect du droit d'auteur est davantage visible lorsqu’on s’intéresse aux générateurs d’images, mais s'applique à tous types de contenus. S'il est possible d’exercer un droit de retrait, il est souvent déjà trop tard, et cela n’empêche pas les entreprises moins scrupuleuses de ne tenir aucun compte de ces requêtes.

Travail du clic

Pour créer des modèles d’IA générative vraiment performants, le fait d’avoir une grosse quantité de données ne suffit pas. Il faut aussi être capable d’associer ces données à des labels. Ce travail, qui est fait manuellement, est souvent chronophage et laborieux. Les grandes entreprises de la tech recrutent des petites mains, sous-payées, à la limite de l’esclavage, dans des pays en Afrique ou en Asie pour faire le travail.

Affiche du documentaire Invisibles - les travailleurs du clic

Terres rares et lointaines

L’exploitation des minerais et ressources nécessaires au fonctionnement des data centers de l'IA s’opère souvent dans de mauvaises conditions environnementales et sociales : gaspillage énergétique, détérioration et pollution des milieux, conditions de travail dégradées d’autant que les pays où les gisements majeurs se trouvent n’appliquent pas les mêmes standards que l’Union européenne.
Exploiter les ressources avec un minimum de soin pour un maximum de profits… ces mécanismes de pillage et d’appropriation s'appuient sur les idéologies (néo)coloniales. Ils sont inhérents au capitalisme algorithmique.

3.3 Une industrie écocide

Mesurer l'impact

Si l'IA peut contribuer à résoudre les enjeux écologiques par l'analyse de données massives, elle contribue énormément à aggraver l'impact écologique du numérique. L'évaluation de cet impact est très complexe car elle doit prendre en compte les impacts générés lors de toutes les étapes du cycle de vie (conception, fabrication, distribution, utilisation et fin de vie) des trois briques matérielles (terminaux, réseaux et data centers) nécessaires à son fonctionnement.

Métaux et minerais

D’ici à 2050, pour répondre aux projections de demandes, la quantité de métaux requis pourrait représenter trois à dix fois les volumes de production actuels. Il faudrait donc en produire plus au cours des 35 prochaines années que la quantité cumulée produite depuis l’Antiquité. Cette industrie, qui dépend d’une quantité et d’un nombre croissant de matières premières dites « critiques », va entraîner l’épuisement d'une grande partie des ressources abiotiques naturelles (minéraux et métaux).

Artificialisation des sols

Si une partie des data centers nécessaires au traitement et au stockage des données liées aux IA a été installée sur des sites préalablement artificialisés, les géants de la tech se soucient peu de l'impact environnemental lié à l'artificialisation des sols : de nombreux projets de data centers géants et de mini centrales nucléaires (SMR pour Small modular reactor) pour les alimenter voient le jour chaque mois.

Des besoins énergétiques mal anticipés

de 1 % à 13 % de la consommation mondiale d’électricité si on double les data-centers dans les dix ans. Cette estimation de l'agence internationale de l'énergie souligne l'inquiétude des états quant à leur capacité à produire suffisamment d'électricité. Google affirme que l’IA représente déjà 10 à 15 % de leur consommation énergétique, soit 2,3 TWh (environ une ville de 500 000 habitant⋅es).
2,5 milliards de tonnes de gaz à effet de serre émis d'ici 2030 pour alimenter les data-centers ? Selon un rapport la banque d'investissement Morgan Stanley, cette estimation est trois fois plus haute que si l'IA générative n'existait pas. Le secteur de l’énergie mondiale dépend à 65 % du charbon, ses émissions en CO2 battant régulièrement des records.
entre 4,2 et 6,6 milliards de m³ d’eau consommés en 2027 ? C'est, selon cette étude, ce que demanderait la production de l’électricité renouvelable nécessaire pour faire marcher les IA et refroidir les serveurs. Cela représente presque les besoins en eau du Danemark, ou la moitié de ceux du Royaume Uni. Une telle consommation pourrait empirer les pénuries d’eau locales et exacerber les problèmes d’accès à l’eau.

Usine de cartes graphiques Nvidia, utilisées notamment pour faire fonctionner des IA génératives. - © pcgamesn.com

Notre sélection d'articles sur les impacts de l'IA

Voir notre veille sur cette thématique

4. Risques culturels et démocratiques

Plus qu'un phénomène économique, les systèmes d'IA sont des outils d’information. Ainsi, ils influencent tous les aspects de notre vie sociale, du monde du travail à nos représentations culturelles. Afin de garder la maîtrise de nos choix collectifs et démocratiques, il devient essentiel de comprendre les enjeux culturels de l'IA.

4.1 Reconfiguration du monde du travail

Réduire les emplois ou faciliter le travail ?

Près de 40 % des emplois dans le monde sont déjà exposés à l’IA dans les pays occidentaux. Les grandes entreprises qui intègrent l’IA privilégient massivement l’automatisation (remplacer les personnes) à l’augmentation (rendre les personnes plus productives), en visant une rentabilité à court terme. La moitié des emplois exposés pourrait bénéficier de l’intégration de l’IA, qui se traduirait par un gain de productivité.

Les secteurs professionnels déjà impactés

L’IA se démarque par sa capacité à toucher les emplois hautement qualifiés, comme par exemple dans : la santé (médecine préventive, CIAO), la finance et la banque (détection des fraudes, économies d'échelle), le commerce de détail (gestion des stocks), l'industrie manufacturière (optimisation des chaînes de production), les transports et la logistique (véhicules autonomes, gestion du trafic), l'informatique (révision et la sécurisation du code), l'éducation (contenus éducatifs), etc.

Un avenir d'inégalités accrues

L’IA va influer sur les inégalités de revenus (et de richesses) en créant un phénomène de polarisation où les travailleur⋅ses qui seront capables d’exploiter l’IA verront leur productivité et leur salaire augmenter, contrairement à celles et ceux qui ne sauront pas le faire. De plus en plus de travailleurs non-qualifiés seront relégués à des emplois de service mal rémunérés où une présence humaine est encore nécessaire, tels que ceux d’aide-soignant, d’assistante maternelle ou de portier.

Publicité « arrêtez d'embauché des humains » diffusée autour de San Francisco et promouvant le bot de rendez-vous commerciaux de Artisan AI (Image credit: /u/jasparcjt via Reddit)

4.2 Des bouleversements culturels

La culture des monopoles

Les entreprises de la tech sont dirigées par des personnes qui se positionnent, depuis des années, en « prophètes » d’un monde meilleur, dont leurs systèmes sont censés accoucher. Hommes blancs, issus des élites universitaire et entrepreneuriale, ils nous imposent leur vision du monde, de la morale et de l'être humain. En réalisant leur rêve de « village global numérique », ils standardisent nos consommations, formatent nos relations et contrôlent nos moyens d’expression.

Tropes et clichés

Dans le domaine culturel, l'IA accentue fortement ce que le capitalisme encourage depuis longtemps : un fort conformisme, allant de formats standards à des représentations avec des variations mineures. Nous sommes cernés par une uniformité de contenus et de tons, une « faible entropie », une forme de grande « prévisibilité culturelle », qui consacre le cliché, le stéréotype, la narration sur la réalité.

Développement de l'individualisme

L’IA va renforcer notre manière de vivre notre rapport au monde et aux autres de façon individualiste et égocentrée. A travers le concept du techno cocon, Alain Damasio rappelle que ces IA qui maximisent l’auto-aliénation entrent déjà dans nos intimités sur un mode cajolant : nous ne sommes plus obligé⋅es de parler à des personnes qui ne partagent pas nos goûts, ou qui ne seraient pas bienveillantes avec nous.

Biais, deepfakes et infopollution : des conséquences concrètes

Les IA amplifient des biais introduits inconsciemment (ou non) par leurs créateurs lors de la préparation des jeux de données et de l’entraînement des modèles. L’effet boîte noire et l’absence de transparence de l'IA favorisent leur propagation et leur multiplication. Ces biais perpétuent des oppressions systémiques, et peuvent générer des discriminations très concrètes sur les individus (les priver d’un emploi ou d’un prêt, par exemple).
Groupes terroristes, militant⋅es d'extrême droite et arnaqueurs utilisent déjà les deepfakes (hypertrucages). Ces photos, vidéos ou sons hyperréalistes sont générées par l’IA pour falsifier l’image et la voix de personnes existantes. Parmi les victimes de discrédit, compromission et fausses déclarations, on trouve des personnalités politiques, religieuses ou artistiques. Les corps d'actrices et acteurs pornos sont aussi utilisés pour créer de faux influenceurs en ligne et générer des revenus.
Avec la multiplication exponentielle de la production automatique de contenus par les IA (actuellement estimée à la moitié des contenus sur le web) à des fins purement économiques, les contenus et interactions humaines sont de moins moins identifiables. Alimentant le phénomène d'infopollution, ce déluge de bruit blanc informationnel entraîne perte de temps et dispersion de l’attention.

Affiche du documentaire CodedBias : Algorithmes et discriminations.

4.3 Confiscation des choix démocratiques

Un idéal démocratique malmené

Comment continuer la démocratie à l’ère du « gouvernement des algorithmes » ? Si l’IA peut faire miroiter l’émergence d’une intelligence collective dans nos sociétés démocratiques, elle pourrait aussi donner aux gouvernements un pouvoir de surveillance sans précédent sur les citoyen⋅nes. L’interdépendance croissante entre la société, la politique et la technologie, notamment algorithmique, pourrait, de plus, accélérer l’obsolescence des institutions et des procédures démocratiques.

Une démocratie technique inexistante

La participation des citoyen⋅nes aux réflexions sur les conditions de l'adoption des systèmes d'IA reste anecdotique. Ainsi, la définition des risques liés à l'IA est accolée à des décisions qui échappent totalement aux citoyen⋅nes. Et donc des outils d’IA problématiques continuent d’être déployés sans débat. En témoigne le choix récent d’expérimenter la vidéosurveillance algorithmique lors des Jeux Olympiques et paralympiques.

« Erreur 404 - Démocracie non trouvée » Source : Observatoire de la Dette dans la Globalisation (odg.cat)

En complexifiant un peu plus l’environnement numérique dans lequel nous évoluons, l'IA va conforter, voire amplifier, la fracture numérique actuelle qui touche déjà 15 % de la population française.

Notre sélection d'articles sur les risques de l'IA

Voir notre veille sur cette thématique

5. Choix d'outil, choix de société

Il est désormais impossible d'ignorer les IA génératives et leur omniprésence dans l'espace numérique. Il semble donc urgent de questionner, collectivement et individuellement, les usages, impacts et conditions dans lesquelles nous acceptons d'intégrer ces outils dans nos sociétés.

5.1 Collectivement, exiger l'éthique

Progresser... vers quoi ?

Les outils d'IA produits dans une idéologie capitaliste ont généralement pour objectif d'améliorer la productivité, les gains, et supprimer le travail humain. Pourtant, les avancées récentes pourraient aussi être utilisées à réduire les situations de handicap (accessibilité), faciliter le lien humain, les collectifs et les collaborations, ou encore réduire l'illectronisme en offrant des interfaces numériques plus simples à aborder. Ces choix techniques dépendent d'une volonté politique, celle de s'en donner les moyens.

Posséder l'intelligence ?

Laisser l'évolution de l'intelligence artificielle entre les mains d'entreprises en compétition, c'est risquer de reproduire les monopoles de l'internet des plateformes. A contrario, les modèles des Communs et de la science montrent que favoriser l'ouverture, la non-concurrence, la transparence et la co-construction sert l'humanité. Pour empêcher l'appropriation d'inventions majeures, nos sociétés disposent déjà des outils légaux (licences libres) et politiques (interdiction de brevets)

Faire plus, faire mieux ?

La différence entre les IA généralistes et les IA spécialisées est édifiante. Les modèles généralistes sont conçus dans l'accumulation et la croissance. Toujours plus gros, puissants, lourds… ils réalisent des taches variées en mobilisant des ressources énormes (données, énergie, cartes graphiques). Les modèles spécialisés, quant à eux sont optimisés pour résoudre efficacement une tâche précise. Leur impact est souvent maîtrisé, et peut correspondre à celui d'un autre logiciel.
Représentation de la mascotte de Lokas, un perroquet mécanique avec une clé pour le remonter dans le dos, et un oscilloscope sur le ventre, qui est en train de taper sur une machine à écrire d'où sort un long papier.

5.2 Individuellement, questionner l'acceptable

Individuellement, notre capacité d'action se limite au choix d'utiliser, recommander ou boycotter tel ou tel outil numérique. Avant de confier nos usages à tel ou tel outil, chacun·e d'entre nous peut se questionner pour savoir s'il remplit les crières de notre confiance.

5.3 L'expérimentation de Framasoft : Lokas

Lokas est une démonstration (un prototype) d'outil IA conçu par Framasoft. Nous avions envie de voir quelle forme prendrait un outil fait par une association sans but lucratif et aux moyens limités, souhaitant être utile au bien commun, en transparence et en limitant l'impact.

Lokas est une application mobile (Android et iOS) qui permet d'enregistrer une réunion, afin d'obtenir un transcript. Cette démo est limitée, mais fonctionnelle : à vous de nous dire s'il faut poursuivre l'exploration !

Obtenir Lokas
Lire la présentation complète

Who is behind Framamia?

Framamia is proposed by a French not-for-profit association: Framasoft

Created in 2004, the association is now dedicated to popular education on the challenges of the digital age and the cultural commons. Our small structure (35 including 10) is known the De-google-ify Internet project (26 ethical and alternative online tools) and for the development of PeerTube, Mobilizon, etc. Recognized as being of general interest Framasoft is funded at 96% by your donations, which are tax deductible for French taxpayers.

Support Framasoft

Because freedom doesn’t mean it’s free…

Framasoft is a not-for-profit which can only keep running thanks to your donations. Do you like what we do? Do you think we’re going in the right direction? If so, and you’re able to make a donation, we’d very much appreciate it!

Balloon: Flaticon

1. Give to Framasoft

2. Complete your information

I represent

In France, thanks to the tax deduction of 66%, your donation of €20 will cost you only €7.

3. Make the payment

Questions

  • Recurring donations can be stopped anytime, just ask us.
  • If you want to modify your recurring donation, please contact us, we will stop the current one and you will be able to make a new one.
  • Tax receipts (in France only) are sent by postal mail in March/April 2025 (before tax declaration) for 2024 donations
  • Financial and activity reports can be found on the not-for-profit page
  • If you have more questions, you may find answers there