top of page

09 72 17 24 12

(appel non surtaxé)

L’intelligence artificielle en 2025 : état des lieux, défis et perspectives

joseph léopold

16 mai 2025

Impossible d’ouvrir un magazine ou un fil LinkedIn sans tomber sur une histoire d’IA : diagnostics médicaux, chatbots dans les mairies, robots-poètes… En 2025, cette technologie n’est plus une promesse mais un socle : 96 % des organisations l’utilisent déjà, et la plupart comptent intensifier encore leur déploiement l’an prochain.




1. Des modèles géants… et des nano-modèles

Depuis avril, la famille GPT-4.1 surclasse les modèles de 2024 : 1 million de tokens de contexte, +21 points sur SWE-bench et, surtout, une déclinaison nano pour les appareils embarqués OpenAICentre d'aide OpenAI. Cette diversification traduit une tendance forte : passer d’un tout-cloud coûteux à des modèles plus petits, capables de tourner en local pour des usages temps réel (voitures, casques XR, IoT).



2. L’open source devient incontournable

Le rapport State of Open Source 2025 montre que 96 % des entreprises intègrent déjà des briques open source et qu’un tiers a accéléré ses contributions en 2024-2025. Mais il pointe aussi des angles morts : 25 % utilisent encore CentOS en fin de vie et 30 % n’ont aucun plan de migration The Register. Les communautés OSS profitent toutefois des nouvelles règles européennes (voir ci-dessous) qui imposent davantage de transparence sur les modèles fermés – un levier d’adoption supplémentaire pour les alternatives libres.



3. Régulation : l’EU AI Act entre en scène

Entré en vigueur en août 2024, le règlement européen applique depuis le 2 février 2025 ses premières interdictions : systèmes de manipulation comportementale ou de prédiction criminelle, détection d’émotions au travail, etc. Les obligations pour les modèles GPAI (general-purpose AI) commenceront, elles, le 2 août 2025, et s’échelonneront jusqu’en 2027 bsr.orgActe IA UE. Pour les entreprises, 2025 est donc l’année charnière : cartographier ses usages IA, documenter les risques et mettre en place une gouvernance dédiée avant les audits.



4. Des cas d’usage qui se verticalisent

Dans la finance, l’IA sert désormais autant à l’analyse temps réel des anomalies qu’à l’optimisation des stratégies de trading ; 70 % des établissements européens y recourent selon Deloitte L'Est Républicain. Dans la santé, les grands hôpitaux français testent déjà des agents cliniques basés sur GPT-4.1 mini pour résumer un dossier patient en quelques secondes. Même l’administration publique expérimente, sous contrôle de l’AI Act, des chatbots multilingues pour simplifier les démarches citoyennes.



5. Gouvernance et éthique : la grande question du « qui contrôle ? »

L’épisode de novembre 2023 chez OpenAI – éviction puis réintégration express de Sam Altman – continue de hanter 2025 : il illustre la fragilité d’un secteur où quelques dirigeants décident pour le reste du monde The Atlantic. Résultat : les investisseurs exigent des comités indépendants de sûreté ; les chercheurs militent pour un open-sourcing contrôlé des jeux de données ; et les États poussent des « AI-offices » nationaux, à l’image du bureau européen qui ouvrira cet été.



6. Tendances à surveiller jusqu’en 2030

Horizon

Signal faible aujourd’hui

Impact probable

2025-2026

Modèles hybrides public-privé (API + Fine-tune local)

Réduction des coûts cloud et regain de souveraineté des données

2026-2027

Agents autonomes multi-spécialistes

Automatisation de tâches complexes (comptabilité, R&D)

2027-2030

IA frugale & edge (consommation < 1 W)

Massification dans les objets du quotidien, bilan carbone divisé par 10



Conclusion

L’intelligence artificielle a quitté le stade de la hype pour devenir une infrastructure critique. 2025 marque le début d’un double mouvement : maturation technique (nano-modèles, IA embarquée) et encadrement réglementaire (EU AI Act). Les organisations qui tireront leur épingle du jeu seront celles qui combineront :

  1. Excellence technologique : choisir le bon modèle au bon endroit.

  2. Gouvernance responsable : documentation, transparence, comité éthique.

  3. Capital humain : former les équipes à collaborer avec l’IA, pas seulement à l’utiliser.

En somme, l’IA n’est plus une option mais un choix stratégique. Et ce choix se joue maintenant.

bottom of page