1. Résumé exécutif
Les tendances en recherche de mars 2026 se caractérisent par un déplacement rapide de la phase « améliorer la performance des modèles » vers la phase « fonctionner dans des environnements réels sans défaillance, expliquer le raisonnement et rendre vérifiable ». La sécurité progresse dans la formalisation et l’opérationnalisation avec les dossiers de sécurité, la conception d’arrêt d’urgence et la non-compositionnalité de la sécurité basée sur les capacités. Les agents font l’objet d’une évaluation croissante de leur robustesse face aux entrées externes, à la logique interne et aux environnements adversariaux. La robotique concrétise l’adaptation à la réalité par la perception active et la fusion tactile. L’interdisciplinarité converge vers des émulateurs climatiques et des générateurs de composés chimiques qui respectent les lois physiques tout en optimisant l’efficacité de l’exploration. Ce mois se distingue par le fait que la sécurité, l’adaptabilité et la vérifiabilité se sont intégrées comme acteurs principaux, avec environ 20 sujets transversaux imbriqués.
2. Tendances mensuelles en recherche
Tendance 1 : de la « narration » de la sécurité vers des « systèmes argumentés et vérifiables »
Ce mois, un accent particulier a été mis sur le fait que l’alignement et les garde-fous de sécurité ne se limitent plus à l’apprentissage du refus ou aux ajustements de formulation des politiques, mais évoluent vers des cadres permettant de retracer « pourquoi pouvons-nous dire que c’est sûr ». L’exemple phare est la reconsidération des dossiers de sécurité, où la sécurité des IA frontières est construite comme une « argumentation convaincante (argument) » avec des liens causals explicites entre preuves et affirmations (Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases). En parallèle, la stratégie de publication échelonnée émerge de la même préoccupation. Au lieu d’une décision binaire de publication, une approche « tiered, safety-anchored » est proposée, où les modalités d’accès s’ajustent en fonction de la granularité des preuves de sécurité et de la rigueur des évaluations de risque (Beyond the Binary: A nuanced path for open-weight advanced AI). Quant à l’arrêt d’urgence comme dernier recours, les recherches posent la question des conditions extrêmes où l’arrêt lui-même pourrait ne pas être réalisable, plaçant la « soupape de sécurité » comme objet de conception (Shutdown Safety Valves for Advanced AI).
Cette trajectoire est solidement soutenue du point de vue opérationnel par des mises à jour du Preparedness Framework qui mettent en avant la publication des états de préparation en lien avec les versions et l’explication des procédures d’évaluation (Our updated Preparedness Framework). En substance, la sécurité se redéfinit : de « quoi mettre dedans » à « comment juger que c’est sûr, qui vérifie, et avec quelles preuves ».
La recherche en sécurité a également élargi sa perspective aux vecteurs d’attaque internes aux modèles. Par exemple, une mise en garde contre la manipulation adversariale des activations internes pour contourner les filtres de sécurité (Amnesia) indique que les défenses au niveau de la couche d’entrée ne suffisent pas (Amnesia: Adversarial Semantic Layer Specific Activation Steering in LLMs). Parallèlement, la sécurité basée sur les capacités démontre formellement la non-compositionnalité, montrant que même si l’accès indirect à certaines capacités interdites est bloqué, la composition peut les rendre accessibles (Safety is Non-Compositional: A Formal Framework for Capability-Based AI Systems). L’énoncé formel de cette prémisse stricte — que la sécurité ne peut être réduite à une simple agrégation de composants — constitue une avancée importante du mois.
Tendance 2 : la robustesse contre les « détournements » externes et internes devient le champ de bataille principal
Un deuxième pilier de la recherche en sécurité de mars est l’augmentation des études supposant que les attaques vont au-delà du simple « prompt », affectant le raisonnement, la logique interne et l’opération des agents. ReasAlign en est l’exemple vedette : il aborde la résistance aux injections de prompts (en particulier la contamination indirecte de données externes) non par le refus, mais par l’« intégrité des trajectoires de raisonnement », avec le Judge model pour choisir le chemin de raisonnement au moment de l’inférence, incluant le test-time scaling. Les résultats montrent une réduction significative de l’Attack Success Rate (ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack). Au lieu de demander « quelle instruction est mauvaise », on demande « quelle est la trajectoire cohérente une fois les instructions en conflit résolues ».
De plus, face à la réalité des agents opérant en plusieurs étapes, la surface d’attaque s’est déplacée vers la « couche logique ». Le Logic-layer Automated Attack Framework (LAAF) automatise les équipes rouges en intervenant sur les étapes de raisonnement des agents pour induire des exécutions de tâches non intentionnelles (LAAF: Logic-layer Automated Attack Framework). Cela s’aligne avec l’évaluation de la défense qui mesure au-delà de la qualité de surface des réponses, jusqu’à la chaîne de jugement logique de l’agent.
En outre, la robustesse dans les environnements adversariaux est indissociable de la sécurité. TraderBench teste les agents IA coexistant avec des adversaires sur les marchés financiers, révélant que même les modèles hautement performants en conditions normales montrent des réactions « paniquées » en cas de manipulation de marché (TraderBench: How Robust Are AI Agents in Adversarial Capital Markets?). Dans la robotique, une pensée analogue lie la planification sécurisée à la « capacité d’atteinte », menant à la tendance suivante.
Tendance 3 : l’adaptation au monde réel s’appuie sur l’« agentivité (voir/toucher/penser) » et la « représentation des contraintes »
La caractéristique distinctive de la robotique ce mois-ci est que plutôt que de simplement renforcer les modèles VLA, on formalise explicitement l’agentivité envers l’environnement : observation avant action (Look Before Acting), contrôle de perspective (vision active) et intégration tactile. Les modèles Vision-Language-Action intègrent le « regarder avant d’agir », renforçant les capacités de représentation et améliorant le taux de succès de 15 à 22 % (Look Before Acting: Enhancing Vision Foundation Representations for Vision-Language-Action Models). Pour la manipulation généraliste en environnements dynamiques, l’apprentissage hybride combinant simulation physique et données réelles vise une manipulation robuste, surpassant les SOTA sur le taux d’achèvement en environnements domestiques inconnus (Towards Generalizable Robotic Manipulation in Dynamic Environments).
Concernant une problématique plus proche de l’implémentation, on observe une tendance à intégrer la « manipulation avec contact » dans les modèles du monde. OmniVTA intègre vision et tactile pour apprendre une manipulation riche en contacts, améliorant le taux de succès d’environ 28 % par rapport aux modèles visuels existants (OmniVTA: Visuo-Tactile World Modeling for Contact-Rich Robotic Manipulation). C’est le passage de « juste regarder » à « toucher pour vérifier » dans la cognition du robot.
Simultanément, dans le domaine de la planification, l’efficacité de l’exploration et la combinaison avec les « informations de sécurité » (comme la capacité d’atteinte) deviennent centrales. CASSR utilise la capacité d’atteinte comme guide pour effectuer une recherche A* tout en respectant les contraintes continues, montrant une direction pour la planification de pas en temps réel (CASSR: Continuous A-Star Search through Reachability for real time footstep planning). Tous ces efforts convergent vers une conclusion commune : la clé réside à « exprimer l’incertitude du monde réel sous forme de contraintes et les transmettre à l’exploration et l’apprentissage ».
Tendance 4 : la convergence interdisciplinaire vers la « génération et émulation avec contraintes »
Ce mois, plusieurs domaines — biosciences, climatologie, matériaux, astronomie — montrent une direction forte : « générer et accélérer tout en respectant les contraintes (physiques/connaissances existantes/sécurité/confidentialité) ». Le modèle dominant n’est plus la simple modélisation statistique, mais l’hybride intégrant physique et savoir existant. Par exemple, en analyse de cellules uniques, ELISA intègre les connaissances sur les facteurs de transcription et les voies métaboliques dans l’inférence LLM pour viser des découvertes interprétables, rapportant des scores composites élevés (ELISA: An Interpretable Hybrid Generative AI Agent for Expression-Grounded Discovery in Single-Cell Genomics). En climatologie, l’émulateur de glace de mer FloeNet est conçu pour préserver la masse, permettant l’accélération tout en maintenant la précision en conditions inconnues (FloeNet: A mass-conserving global sea ice emulator that generalizes across climates).
En science des matériaux, une direction du type POLYT5 traite la conception générative de polymères comme un langage chimique (grammaire/sémantique chimique) et l’étend à la vérification expérimentale physique (article Georgia Tech : Researchers Create First AI for Generative Polymer Design). De plus, la confidentialité est inséparable du calcul, et des recherches explorent le compromis entre vulnérabilités de confidentialité des réseaux de neurones et performance (New Approach Finds Privacy Vulnerability and Performance Are Intertwined in AI Neural Networks).
Cette tendance reflète un changement d’intérêt : de « l’IA est-elle intelligente » à « l’IA peut-elle fonctionner sur des prémisses de confiance ».
Tendance 5 : l’optimisation de l’inférence et la « concrétisation du calcul efficace » sortent des laboratoires
En particulier dans la seconde moitié de mars, l’optimisation du calcul devient une « condition pour l’opérationalisation ». TurboQuant, par compression extrême, allège les goulots d’étranglement de mémoire comme les caches KV, réduisant le coût et la latence d’inférence tout en maintenant les performances (TurboQuant: Redefining AI efficiency with extreme compression). L’efficacité de calcul s’entrelace aussi avec le « quand penser » en robotique, et une recherche sur l’apprentissage par renforcement conscient des ressources optimise dynamiquement le compromis entre profondeur de raisonnement et coût (When Should a Robot Think? Resource-Aware Reasoning via RL).
Parallèlement, des avancées théoriques comme la méthode Euler-Maruyama multi-niveaux pour l’accélération de modèles de diffusion pourraient se répercuter directement sur le caractère temps réel des agents (Polynomial Speedup in Diffusion Models with the Multilevel Euler-Maruyama Method).
Cette tendance correspond au thème intégrateur du mois : l’efficacité de calcul devient le fondement pour ne pas céder sur la sécurité, l’adaptabilité au moment de l’opérationalisation.
3. Sélection de papiers importants (8 articles)
[Publication échelonnée en tant que prémisse : IA-poids ouvert avancée non binaire]
- Date de publication : 2026-02- (voir article source)
- Domaine de recherche : Gouvernance IA / Stratégie de publication de modèles
- Auteurs/Affiliation : À confirmer à partir d’arXiv (détails non développés dans l’entrée)
- Contexte et question : Le poids ouvert stimule la recherche mais amplifie aussi les risques de mauvais usage. Peut-on sortir de la décision binaire publication/non-publication et mettre en place une « gradation des formes de publication » basée sur l’évaluation des risques ?
- Méthode et résultats principaux : Présente une approche tiered, safety-anchored où les modalités d’accès sont ajustées en fonction de la rigueur des évaluations de sécurité et du degré de preuves de sécurité.
- Signification et impact futur : Dépasse le raccourci « publication = justice / non-publication = protection » et lie l’opérationalisation aux dossiers de sécurité. La forme même de publication devient partie intégrante de la sécurité.
- Source : Beyond the Binary: A nuanced path for open-weight advanced AI
[Reconstruire les fondations des dossiers de sécurité comme « argumentation »]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Sécurité IA / Confiance et audit
- Auteurs/Affiliation : Voir page arXiv (détails non développés dans l’entrée)
- Contexte et question : La sécurité des IA frontières ne peut être mesurée par les différences de performance. « Quelle preuve soutient quelle affirmation » devient nécessaire. Peut-on reformuler les dossiers de sécurité en tant que système argumenté convaincant ?
- Méthode et résultats principaux : Restructure le safety case en tant que structure d’« argument » accessible au lecteur. La réinitiation se concentre plutôt sur le cadre que sur les métriques numériques.
- Signification et impact futur : Fournit un langage commun où l’audit, la régulation et les examens internes peuvent s’aligner. Cependant, le lien avec les systèmes de mesure reste une question à résoudre, la connexion opérationnelle future étant essentielle.
- Source : Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases
[Dernier rempart pour l’IA avancée : soupape de sécurité d’arrêt]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Sécurité IA / Opération et arrêt d’urgence
- Auteurs/Affiliation : Voir page arXiv (détails non développés dans l’entrée)
- Contexte et question : L’IA hautement performante nécessite de considérer des scénarios où même l’arrêt n’est pas réalisable. Quelles sont les exigences de conception pour réaliser l’arrêt de manière sûre ?
- Méthode et résultats principaux : Positionne l’arrêt comme objectif principal (primary goal of being turned off) et le reformule en tant que concept de soupape de sécurité.
- Signification et impact futur : Élève la question au-delà des garde-fous/refus vers les « exigences de conception au-delà des procédures opérationnelles » pour l’arrêt. Le renforcement des garanties formelles est l’étape suivante.
- Source : Shutdown Safety Valves for Advanced AI
[Défense par raisonnement : résistance aux injections de prompts (ReasAlign)]
- Date de publication : 2026-01- (voir article source)
- Domaine de recherche : Sécurité LLM / Renforcement de la robustesse des agents
- Auteurs/Affiliation : Hao Li et al. (article source)
- Contexte et question : Avec l’augmentation des entrées externes dus à l’agentification, l’injection indirecte de prompts devient une menace réaliste. La robustesse peut-elle être augmentée par l’intégrité du raisonnement ?
- Méthode et résultats principaux : Détecte les commandes conflictuelles lors des étapes de raisonnement, sélectionne une trajectoire qui préserve la continuité de la tâche utilisateur avec un judge model choix au test-time scaling. Rapporte sur CyberSecEval2 : maintien de l’utilité à 94,6 % tout en réduisant l’ASR à 3,6 % (comparé à Meta SecAlign : utilité 56,4 %, ASR 74,4 %).
- Signification et impact futur : La défense par le refus se concrétise vers une « défense par l’intégrité du raisonnement ». Propagation attendue vers les agents RAG et recherche de connaissances internes.
- Source : ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack
[Activer la vision-langage-action : regarder avant d’agir]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Robotique / VLA
- Auteurs/Affiliation : Yulin Luo, Hao Chen, Zhuangzhe Wu et al. (article source)
- Contexte et question : Les VLA échouent quand la compréhension visuelle est incomplète. Peut-on renforcer les observations intermédiaires avant l’action pour améliorer la représentation ?
- Méthode et résultats principaux : Introduit le Look Before Acting en renforçant la prédiction et l’extraction des objets/relations critiques avant la décision d’action. L’amélioration multi-bras atteint 15–22 % de succès, avec amélioration de la saisie en environnement dynamique.
- Signification et impact futur : Insère « regarder → réfléchir → agir » dans le graphe de calcul pour se rapprocher du déploiement sur le terrain. Le compromis latence-coût reste une question.
- Source : Look Before Acting: Enhancing Vision Foundation Representations for Vision-Language-Action Models
[Au-delà de la cause simple : InterveneBench]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Informatique sociale / Inférence causale LLM
- Auteurs/Affiliation : Shaojie Shi, Zhengyu Shi, Lingran Zheng et al. (article source)
- Contexte et question : Les LLM peuvent-ils gérer les prédictions d’intervention et la conception d’expériences causales ? Peuvent-ils servir de simulateurs sociaux crédibles ?
- Méthode et résultats principaux : Construit InterveneBench et évalue sur scénarios de politique publique, socio-économiques et sociologiques. Montre que les modèles de pointe présentent des erreurs logiques et biais dans les interventions causales, avec précision autour de 60 %.
- Signification et impact futur : Visualise les risques et opportunités de déléguer l’analyse de politique à l’IA. Agit comme benchmark pour stimuler la recherche sur l’assurance qualité de l’inférence causale.
- Source : InterveneBench: Benchmarking LLMs for Intervention Reasoning and Causal Study Design in Real Social Systems
[Compatibilité physique pour l’accélération : émulateur de glace de mer conservant la masse FloeNet]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Climatologie / IA avec contraintes physiques
- Auteurs/Affiliation : Geophysical Fluid Dynamics Laboratory et al. (article source)
- Contexte et question : La simulation physique de la glace de mer est extrêmement coûteuse en calcul. Un émulateur IA peut-il accélérer tout en respectant la conservation de masse et en se généralisant ?
- Méthode et résultats principaux : Modèle ML conservant la masse apprenant la croissance/fusion/migration toutes les 6 heures. Rapporte une précision élevée sur conditions inconnues : corrélation d’anomalies de volume 0,96+ en Antarctique, 0,76+ en Arctique, y compris scénarios de +1 % CO2.
- Signification et impact futur : Permet l’évaluation instantanée des risques. La stabilité à long terme en conditions extrêmes reste non résolue ; une combinaison avec moteur physique est recommandée.
- Source : FloeNet: A mass-conserving global sea ice emulator that generalizes across climates
[Conjointement sécurité et performance : geler les neurones pour réduire le coût d’alignement]
- Date de publication : 2026-03- (voir article source)
- Domaine de recherche : Sécurité LLM / Contrôle de la représentation
- Auteurs/Affiliation : North Carolina State University (article source)
- Contexte et question : L’amélioration de la sécurité entraîne souvent une dégradation de la performance (coût d’alignement). Peut-on préserver la performance tout en garantissant la sécurité ?
- Méthode et résultats principaux : Identifie les neurones critiques pour la sécurité et les gèle lors du fine-tuning pour maintenir les normes de sécurité et les performances de référence. L’article source rapporte une performance équivalente sur modèles moins sûrs, confirmant la réduction du coût d’alignement.
- Signification et impact futur : Permet l’adaptation de domaine (santé/droit) sans eroder la sécurité. La charge de coût en interprétabilité demeure.
- Source : Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses
4. Analyse transversale
En examinant le corpus de mars en travers les domaines, les mots-clés convergent autour de quatre piliers : « sécurité », « adaptabilité », « vérifiabilité » et « efficacité ». Au cœur se déploie une « redéfinition des objets de conception ». En sécurité, les garanties ne sont pas monolithiques mais dépendent de structures argumentées et de comportements post-composition (comme montré par les dossiers de sécurité et les vannes d’arrêt d’urgence, et surtout la non-compositionnalité de la sécurité basée sur les capacités). En robotique, l’incertitude du monde réel se transforme en représentation de contraintes — voir/toucher/capacité d’atteinte. En informatique sociale, les benchmarks causaux élèvent les « types d’erreur » au-delà du simple score de précision. En climatologie et chimie/matériaux, les contraintes physiques, le savoir existant, la sécurité et la confidentialité sont préservés lors de l’accélération.
Enfin, la recherche en efficacité (TurboQuant, RL conscient des ressources) montre que la sécurité, l’adaptabilité et les capacités ne sont plus sacrifiées au profit du calcul — au contraire, l’efficacité est devenue le fondement pour les rendre opérationnalisables sous des contraintes de ressources. Mars illustre l’intégration de ce processus.
5. Thèmes à surveiller le mois prochain (prédictions)
Le mois suivant devrait voir s’accélérer quatre directions. Premièrement, l’« opérationalisation » des dossiers de sécurité et publication échelonnée, construisant des ensembles de preuves auditables (logs d’évaluation, taxonomie des modes de défaillance, justification des procédures d’arrêt). Deuxièmement, anticiper les attaques au niveau de la couche de raisonnement et interne, structurant les évaluations de défense (superficielles vs. profondes) et intégrant la non-compositionnalité dans la vérification de conception. Troisièmement, en robotique, la perception active (vision, tactile, contrôle de caméra, contraintes de plan continu) poussera vers le déploiement réel, tandis que l’optimisation « quand penser » sous contraintes de puissance/latence affronte les tests de polyvalence. Quatrièmement, l’interdisciplinarité institutionnalisera les émulateurs physiquement compatibles et l’optimisation d’efficacité d’exploration en découverte de médicaments/matériaux, avec l’évaluation (boucles de vérification expérimentale) complètement intégrée — l’IA acquérant ainsi fiabilité au-delà de vitesse. Connexes, les conférences internationales et ateliers devraient centraliser davantage la conception de benchmarks et l’évaluation de sécurité (parmi lesquels les opérations de pistes AIaware 2026).
6. Références
| Titre | Source | Date | URL |
|---|---|---|---|
| Beyond the Binary: A nuanced path for open-weight advanced AI | arXiv | 2026-02- | https://arxiv.org/abs/2602.19682 |
| Clear, Compelling Arguments: Rethinking the Foundations of Frontier AI Safety Cases | arXiv | 2026-03- | https://arxiv.org/abs/2603.08760 |
| Shutdown Safety Valves for Advanced AI | arXiv | 2026-03- | https://arxiv.org/abs/2603.07315 |
| ReasAlign: Reasoning Enhanced Safety Alignment against Prompt Injection Attack | arXiv | 2026-01- | https://arxiv.org/abs/2601.10173 |
| Our updated Preparedness Framework | OpenAI | 2026-03- | https://openai.com/index/updating-our-preparedness-framework/ |
| Internalizing Agency from Reflective Experience | arXiv | 2026-03- | https://arxiv.org/abs/2603.16843 |
| Highly Autonomous Cyber-Capable Agents: Anticipating Capabilities, Tactics, and Strategic Implications | arXiv | 2026-03- | https://arxiv.org/abs/2603.11528 |
| Look Before Acting: Enhancing Vision Foundation Representations for Vision-Language-Action Models | arXiv | 2026-03- | https://arxiv.org/abs/2603.15618 |
| Towards Generalizable Robotic Manipulation in Dynamic Environments | arXiv | 2026-03- | https://arxiv.org/abs/2603.15620 |
| InterveneBench: Benchmarking LLMs for Intervention Reasoning and Causal Study Design in Real Social Systems | arXiv | 2026-03- | https://arxiv.org/abs/2603.15542 |
| SocialOmni: Benchmarking Audio-Visual Social Interactivity in Omni Models | arXiv | 2026-03- | https://arxiv.org/abs/2603.16859 |
| AI Can Learn Scientific Taste | arXiv | 2026-03- | https://arxiv.org/abs/2603.14473 |
| ELISA: An Interpretable Hybrid Generative AI Agent for Expression-Grounded Discovery in Single-Cell Genomics | arXiv | 2026-03- | https://arxiv.org/abs/2603.11872 |
| FloeNet: A mass-conserving global sea ice emulator that generalizes across climates | arXiv | 2026-03- | https://arxiv.org/abs/2603.12449 |
| The Rise of AI in Weather and Climate Information and its Impact on Global Inequality | arXiv | 2026-03- | https://arxiv.org/abs/2603.05710 |
| HarvestFlex: Strawberry Harvesting via Vision-Language-Action Policy Adaptation in the Wild | arXiv | 2026-03- | https://arxiv.org/abs/2603.05982 |
| TraderBench: How Robust Are AI Agents in Adversarial Capital Markets? | arXiv | 2026-03- | https://arxiv.org/abs/2603.00285 |
| Amnesia: Adversarial Semantic Layer Specific Activation Steering in LLMs | arXiv | 2026-03- | https://arxiv.org/abs/2603.10080 |
| When Should a Robot Think? Resource-Aware Reasoning via RL | arXiv | 2026-03- | https://arxiv.org/abs/2603.16673 |
| Polynomial Speedup in Diffusion Models with the Multilevel Euler-Maruyama Method | arXiv | 2026-03- | https://arxiv.org/abs/2603.24594 |
| Researchers Pioneer New Technique to Stop LLMs from Giving Users Unsafe Responses | NCSU News | 2026-03- | https://ncsu.edu/news/2026/03/23/researchers-pioneer-new-technique-to-stop-llms-from-giving-users-unsafe-responses |
| Researchers Create First AI for Generative Polymer Design | Georgia Tech | 2026-03- | https://gatech.edu/edu/news/2026/03/24/researchers-create-first-ai-generative-polymer-design |
| TurboQuant: Redefining AI efficiency with extreme compression | Google Research Blog | 2026-03- | https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/ |
| Safety is Non-Compositional: A Formal Framework for Capability-Based AI Systems | arXiv | 2026-03- | https://arxiv.org/abs/2603.15973 |
| LAAF: Logic-layer Automated Attack Framework | arXiv | 2026-03- | https://arxiv.org/abs/2603.17239 |
| CASSR: Continuous A-Star Search through Reachability for real time footstep planning | arXiv | 2026-03- | https://arxiv.org/abs/2603.02989 |
| Safety Report 2026(International AI Safety Report) | Safety Report | 2026-02- | https://internationalaisafetyreport.org/sites/default/files/2026-02/international-ai-safety-report-2026_1.pdf |
| Organizational Transformation in the Age of AI | WEF | 2026- | https://weforum.org/publications/organizational-transformation-in-the-age-of-ai/ |
| Autoscience raises $14M seed round to scale its autonomous AI research lab | R&D World | 2026-03- | https://rdworldonline.com/autoscience-raises-14m-seed-round-to-scale-its-autonomous-ai-research-lab/ |
| All AI labs to safety-test rival models | The Guardian | 2026-03- | https://www.theguardian.com/technology/openai/2026/mar/06/all |
Cet article a été généré automatiquement par LLM. Il peut contenir des erreurs.
