Nous suivre Industrie Techno

La semaine de Jean-François Prevéraud

Jouer la synergie entre essais physiques et virtuels

Industrie et  Technologies
J'ai assisté voici quelques jours au séminaire de la Nafems qui se tenait à Paris. Celui-ci a permis de faire un tour d'horizon du monde du calcul et mis en avant la synergie entre essais physiques et virtuels.


C'est Jean-François Imbert, président de la Task Force Simulation du programme Harmonisation PLM d'EADS, qui a lancé la journée en présentant la problématique et la vision industrielle de la synergie entre essais physiques et virtuels.

« Le contexte industriel aérospatial très concurrentiel nous impose de réduire nos cycles de développement de 20 à 30 %, tout en livrant des appareils toujours plus innovants et performant, qui présentent une très grande maturité dès leur entrée en service, car on ne badine pas avec la sécurité. Le tout dans un contexte d'entreprise étendue où la virtualisation du développement est devenue la règle, avec notamment une forte dominante simulation numérique ».

Cette virtualisation se traduit d'une part dans la validation amont des nouvelles technologies et l'optimisation d'une conception robuste en détectant et en réduisant le plus tôt possible les risques potentiels. On la retrouve aussi en aval dans le test des sous-ensembles. Mais cette virtualisation suppose aussi la validation des méthodologies et des outils utilisés, qui repose sur l'optimisation de démonstrateurs numériques et physiques. Et cela à tous les niveaux de la pyramide de la validation allant du plus petit composant jusqu'à l'avion complet.

Jean-François Imbert a ensuite donné quelques définitions des essais virtuels. C'est tout d'abord la capacité d'évaluation, par simulation numérique "haute fidelité", de la performance à tous les niveaux de la pyramide, avec un niveau de confiance quantifiable. C'est aussi la capacité de prévoir et pas seulement de vérifier à posteriori, ainsi que la capacité d'extrapolation et d'exploration d'un domaine de conception.

Vient ensuite la capacité de passer à un niveau supérieur de la pyramide des démonstrations à partir des démonstrations à un niveau inférieur, mais aussi la capacité de trouver ce que l'on ne cherchait pas avant de faire le calcul ! Enfin, à terme, c'est la capacité de remplacement total d'un essai physique...

La complémentarité entre les essais virtuels et physiques est aussi importante. Elle permet par exemple d'évaluer différents cas de charge pour trouver le plus défavorable qui, lui, sera validé physiquement. L'essai virtuel mettra en valeur les déformations ou ruptures potentielles, ce qui permettra de placer correctement les jauges de contrainte et autres instruments de mesure pour le test réel. On pourra aussi comparer en temps réel les valeurs obtenue et ainsi piloter le test physique. Enfin, on comparera la corrélation entre les deux tests lors de la phase de dépouillement et d'analyse des résultats.

« Globalement, on peut dire qu'il y a eu de grands progrès de faits dans la dernière décennie dans le domaine de la simulation, mais il reste encore un certain nombre de points noirs qui doivent évoluer. En premier lieu, le passage des données CAO à des données exploitables pour le calcul est encore bien trop long. La puissance des solveurs et des machines hautes performances est encore bien en deçà des besoins, tout comme les capacités de post-traitement des résultats. Les modèles d'endommagement des structures en matériaux composites doivent être améliorés. Le niveau de confiance et de robustesse des simulations reste toujours difficile à évaluer. Enfin, la complémentarité entre les tests virtuels et physiques doit être améliorée. Il faut aussi, et c'est une priorité, assurer une meilleure prise en compte des résultats de tests physiques dans le processus de développement produit. Pour cela, il faut pouvoir mieux gérer les process et les données issues de la simulation, grâce à des outils spécifiques de type SLM (Simulation Lifecycle Management) ».

De nouveaux défis restent donc à relever dans un contexte de virtualisation et de globalisation accru, même si à court et moyen terme, les essais physiques restent indispensables. Il est clair que la validation du produit reposera de plus en plus sur la simulation numérique, avec un programme optimisé d'essais physiques.

« Pour atteindre ces objectifs ambitieux, il faudra agir sur tous les leviers (facteurs humains, organisations, processus, outils...), mais il faudra aussi une mobilisation et une collaboration renforcée de tous les acteurs (Recherche, Industrie, Centres d'Essais, Fournisseurs de Solutions...) », a conclu Jean-François Imbert.

La théorie des méconnaissances

Pierre Ladevèze, professeur à l'Ecole Normale Supérieure de Cachan, est ensuite venu dresser un état de l'art de la validation et du recalage des modèles en calcul de structures. « Il faut en permanence recaler les modèles conceptuels (CAO) et discrétisés (Eléments finis) avec la réalité. On peut par exemple effectuer un recalage du modèle sur l'erreur en relation de comportement par rapport à un ensemble d'essais. Mais celle-ci se décompose en deux termes : d'une part, une erreur sur le comportement lui-même, due à des défauts structuraux sur l'ensemble testé ; d'autre part, une erreur sur l'information expérimentale due à une mauvaise localisation des excitateurs et des capteurs. Il faut alors corriger les paramètres du modèle pour arriver à une erreur globale de quelques pour cent, mais aussi redresser les résultats expérimentaux et au final calculer les "méconnaissances" sur les quantités recalées ».

On peut aussi recaler le modèle par rapport à la réalité "complète", mais c'est un domaine controversé, certains spécialistes n'hésitant pas à dire que l'on ne peut qu'invalider un modèle, mais jamais le valider. « Il suffit d'appliquer au modèle la "théorie des méconnaissances" que nous avons développé à l'ENS (description de ce que vous ne connaissez pas), pour obtenir une solution enveloppe dans laquelle se trouve la réalité. La validation revenant alors à définir la largeur de la solution enveloppe ». De l'aveu même de son auteur, cette "théorie des méconnaissances" fonctionne bien avec les "petites méconnaissances", mais demande encore à être affinée pour les "grandes méconnaissances".

Quelques exemples industriels

Nous avons eu ensuite un certain nombre de présentations d'industriels venus nous faire partager leurs expériences. Ainsi Jean-Christophe Sick, de l'équipementier Behr, a montré la validation du comportement vibratoire d'un modèle éléments finis d'un ventilateur de climatisation automobile. Là aussi dans un contexte de réduction de cycle et de coût de développement, conjointement à un fort courant d'innovation, il s'agissait d'accroître l'usage de la simulation pour évaluer le plus tôt possible les différentes solutions techniques envisagées, afin de choisir la plus performante. La simulation est aussi utilisée pour analyser et comprendre des phénomènes complexes. « Il fallait pour cela développer de nouvelles méthodologies de simulation et effectuer des études de corrélation, afin d'évaluer et valider la précision de nos modèles de simulation ».

La méthode adoptée a été la suivante. Il y a eu une validation du modèle éléments finis du ventilateur dans des conditions de fonctionnement moteur "à l'arrêt", avec notamment un recalage, en jouant sur les lois des matériaux, des modèles de calcul du système complet et du carter seul par rapport à des analyses modales expérimentales. Il a ensuite été procédé à une validation du modèle éléments finis du ventilateur dans des conditions de fonctionnement moteur "allumé", pour prendre en compte les effets gyroscopiques, avec un recalage du système complet par rapport à des essais de balourd moteur (réponse en fréquence) et de montée en régime moteur (diagramme de Campbell). Enfin, il a été procédé à une analyse de sensibilité des paramètres de conception (jeux fonctionnels, précontraintes...) et de modélisation (maillage, loi de matériaux...).

« On peut retirer de cette démarche de validation et de corrélation un certain nombre d'enseignements. Tout d'abord il s'agit d'un travail de longue haleine qui demande plusieurs semaines avant d'arriver à un modèle éléments finis précis utilisable en dynamique. Il faut aussi vérifier que les modèles CAO fournis correspondent bien à la réalité des pièces que vous testez physiquement. Enfin, il est souhaitable que ce soit l'ingénieur chargé de la simulation qui effectue les tests physiques ».

Joseph Merlet, du prestataire en essais et mesure Intespace, a expliqué comment sa société en est venu à mettre au point une méthode d'identification modale temps réel, qui permet au maître d'Å“uvre d'un satellite de déterminer le comportement dynamique de sa structure sur les premiers modes, afin de tester son équipement avec des spécifications réalistes. « Cette méthode présente l'avantage de pouvoir être réalisée en temps masqué, entre deux essais sinus balayés sur vibrateur pour la qualification du lanceur. Il faut en effet de l'ordre de quatre heures en incluant la corrélation et le recalage ».

Hervé Legrave et Jean-Max Sanchez de DCNS ont présenté une campagne d'essais menée sur un caisson immergé pour valider les effets d'une explosion sous-marine sur des matériels embarqués posés sur des berceaux suspendus dans des sous-marins. L'objectif étant de valider à la fois les modèles de propagation de l'onde choc acoustique primaire et de la dynamique de la bulle de gaz, ainsi que leurs effets sur la structure. Ces résultats d'essais ont contribué à la validation des méthodes et outils de calcul mis en Å“uvre par DCNS.

Mieux piloter le réel grâce au virtuel

Patrick Champigny, directeur du département aérodynamique appliquée de l'Onera a présenté la synergie calcul/expérience dans le domaine de l'aérodynamique des véhicules aériens. « Jusqu'à maintenant on faisait d'une part des essais en soufflerie pour déterminer les performances d'un avion et d'autre part des simulations. Charge à l'utilisateur de faire des recoupements et des arbitrages entre les résultats. Outre que cela consommait beaucoup de temps, il fallait avoir de très bons spécialistes des différentes technologies. On se dirige maintenant vers un couplage fort entre les essais en soufflerie et la simulation, pour préparer, optimiser, corriger et interpréter les essais. Nous participons d'ailleurs à deux projets dans le domaine : SAO - Soufflerie Assisté par Ordinateur (ANR - Carnot) et WITAMOTEC - WInd Tunnel And Model TEChniques (DGAC) ».

Ce couplage entre essais virtuels et physiques permet d'appréhender et de corriger certains phénomènes perturbateurs des essais physiques comme l'influence des mats supportant les maquettes ou les perturbations générées par les capteurs dans la soufflerie. « De plus, les codes de calcul actuels ont encore des limites, en particulier aux frontières du domaine de vol, ce qui est important en terme de sécurité et de certification, ainsi que pour la représentation fine de certains systèmes complexes (systèmes hypersustentateurs, tête de rotor...). Les souffleries ont donc encore un bel avenir ».

Jocelyn Gaudin, Structure Analysis R&T Manager chez Airbus, a ensuite fait le point sur la corrélation entre les essais et le calcul pour les structures aéronautiques. « Nous sommes dans un contexte de certification réglementaire très fort, qui nous impose des tests physiques. Mais dans le même temps nous utilisons quotidiennement la simulation numérique dans toutes les disciplines et pour tous les composants de l'avion. De plus, la place grandissante des structures en matériaux composites est un véritable défi pour la simulation, notamment pour le recalage des modèles qui est une tâche manuelle très complexe. Il est donc très difficile de minimiser les risques dans ce domaine sans avoir recours aux essais physiques. Par contre, la nécessité de réduire nos cycles nous impose de développer virtuellement les structures de nos appareils, afin de détecter très tôt les risques potentiels, notamment lors de l'emploi de nouvelles technologies, pour éviter les mauvaises surprises lors des essais ».

Ce développement virtuel des structures impose une modélisation "haute fidélité", notamment pour les lois de comportement des matériaux et des assemblages. La robustesse des analyses impose aussi une prise en compte des tolérances et des incertitudes. « Si l'on envisage le futur, il va falloir passer rapidement de modèles à 106 degrés de liberté à des modèles à 109 DDL pour approcher au plus près la réalité. De plus la corrélation entre physique et virtuel ne devra plus se faire à posteriori, mais en temps réel, non seulement dans le domaine élastique, mais aussi lors de la rupture. Et plutôt que de prendre des coefficients de sécurité conservateurs, il va réellement falloir quantifier les erreurs et les incertitudes. Enfin, il va falloir disposer de véritables outils de gestion des process et des données de calcul ».

Sur ce dernier point, Jocelyn Gaudin nous a d'ailleurs présenté le prototype d'un outil de corrélation entre tests physiques et simulation développé par EADS IWF pour Airbus. On y retrouve un arbre logique présentant les données d'essais et de calcul avec leurs liaisons, accompagné de deux fenêtres pour la présentation graphique et analytique des résultats.

Tenir compte des process de production

Alain Carcan a présenté la mise en place et l'utilisation par le Cetim d'une boucle calcul-essais pour la mise au point d'un tendeur d'attelage pour le métro parisien. La RATP souhaitait remplacer l'acier traditionnellement utilisé par du titane pour ramener le poids à manipuler de 36 à 20 kg. Le tout bien évidemment sans diminuer les performances ou nuire à la sécurité.

« Nous avons tout d'abord étudié le tendeur en le calculant à la fois en traction et en fatigue. Puis nous avons soumis le prototype à un essai d'homologation en traction de 850 kN pendant 3 minutes. Essai qui a été subi sans problème. La corrélation entre les valeurs mesurées et celles calculées était de moins de 5 % pour la vis, mais de plus de 20 % pour les bielles et la manille. Et de fait les tendeurs ont cassé lors de l'essai de fatigue entre 100 et 200 000 cycles, alors que l'objectif était d'atteindre 2 millions de cycles ».

Les analyses menées après cet échec ont montré que les micro-fissures dues à l'usinage avaient un impact important sur la rupture en fatigue, tout comme l'absence de chanfrein à l'entrée de l'alésage. De même, le modèle numérique ne prenait pas en compte l'hétérogénéité des efforts dans l'ensemble du tendeur. Après recalage du modèle et reconception des bielles, ainsi que la rédaction d'un cahier des charges d'usinage plus strict, le nouveau tendeur a passé tous les essais d'homologation sans problèmes.

Une autre analyse menée par le Cetim pour un fabricant de pots d'échappement montre que le couplage entre les essais physiques et la simulation a permis de réduire de 30 à 50 % le délai de mise au point de la gamme et des outillages d'emboutissage, en évitant à la fois les plis et les déchirures. Les rebuts en production ont pu être réduits de 70 % grâce à une plus grande stabilité du process de production, la durée de vie des outillages a été allongée de 50 à 100 %, le tout en améliorant la qualité des pièces.

Enfin, Daniel Benoualid, Directeur du Centre de Recherche, et Jean Luc Sortais, Chef du service simulation numérique, ont expliqué à travers quelques exemples comment le groupe Hutchinson combinait essais physiques et simulation sur des composants souples pour l'automobile. Dans le cas des flexibles de frein, il s'agit de valider le montage des flexibles sur la chaîne, puis leur comportement lors des débattements de suspension. Dans le cas des joint de portière, il s'agit valider la pression sur le joint et la déformation de l'ouvrant. Pour les supports d'amortisseurs, il s'agit de valider leur comportement structurel et leur pouvoir de filtration des vibrations.

« La mise en place de méthodes de caractérisation par mesures physiques de la matière, des composants, sous-systèmes et systèmes, est indispensable pour la compréhension des phénomènes mis en jeu et faciliter un dimensionnement "prédictif" dans les outils de calcul. Par contre, la validité des outils de modélisation dépend de la qualité des informations récupérées sur les composants non fabriqués par Hutchinson ». Les deux spécialistes estiment par ailleurs qu'il va y avoir une généralisation des méthodes de plan d'expérience et d'optimisation en vue d'un dimensionnement "fiabiliste" et d'une réduction des essais fonctionnels.

Les besoins communs

Le débat qui a suivi avec la salle a confirmé les grandes tendances évoquées lors des présentations. Le besoin d'outils de gestion des process et des données d'essais, ainsi que de corrélation entre les essais numériques et physiques est patent dans tous les secteurs industriels.

Il y a dans l'automobile une forte pression pour prendre en compte les disparités des matériaux, du montage et du comportement logique des contrôleurs électroniques pour approcher au mieux par la simulation le comportement réel des véhicules. « Vu les diversité grandissante des véhicules, il va falloir faire passer les tests physiques d'homologation à des "véhicules enveloppes" représentatifs et procéder à des simulations pour les véhicules au voisinage ». Les besoins d'analyse de sensibilité des différents paramètres sont aussi souvent mis en avant.

Dans tous les secteurs on considère que la simulation permet de définir rapidement les bons essais à réaliser physiquement. « On trouve vite le "pire des cas" ». Mais la complexité grandissante des systèmes, qui intègrent de plus en plus de mécatronique, ne facilite pas la tâche dès que l'on veut procéder à une analyse globale d'un ensemble.

La définition de chartes de modélisation est aussi mis en avant. « Pour le même problème, deux spécialistes utiliseront deux modélisations différentes et arriveront à des résultats différents ». « Il faut à la fois améliorer la robustesse des codes et des utilisateurs ». D'où une demande forte de formation à la fois aux méthodes d'essais et à la communication, car les problèmes de culture entre les équipes chargées de la simulation et celles responsables des essais ont aussi été pointés du doigt.

A la semaine prochaine

Pour en savoir plus : http://www.nafems.org

Jean-François Prevéraud, journaliste à Industrie & Technologies et l'Usine Nouvelle, suit depuis plus de 26 ans l'informatique industrielle et plus particulièrement les applications destinées au monde de la conception (CFAO, GDT, Calcul/Simulation, PLM...). Il a été à l'origine de la lettre bimensuelle Systèmes d'Informations Technologiques, qui a été intégrée à cette lettre Web hebdomadaire, dont il est maintenant le rédacteur en chef.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

« Implant Files » : pourquoi les implants médicaux sont dans la tourmente

« Implant Files » : pourquoi les implants médicaux sont dans la tourmente

C'est un nouveau scandale sanitaire. Après l'affaire des implants mammaires « PIP », une enquête du[…]

IRT Saint-Exupéry : les nouvelles plateformes technologiques opérationnelles

IRT Saint-Exupéry : les nouvelles plateformes technologiques opérationnelles

Drone à hydrogène : le rêve de deux start-up françaises

Drone à hydrogène : le rêve de deux start-up françaises

[Photo Tech] L’impression 3D mobile de bâtiments

[Photo Tech] L’impression 3D mobile de bâtiments

Plus d'articles