N° d'ordre 121

N° attribué par la bibliothèque : 99ENSLO121

Ecole Normale Supérieure de Lyon

Laboratoire de Physique

Thèse pour obtenir le grade de

Docteur de l'Ecole Normale Supérieure de Lyon

en Physique

par :

Alessio Guarino

Propriétés statistiques des précurseurs de la fracture

Présentée et soutenue publiquement le 31 mai 1999 devant le jury composé de :

Sergio Ciliberto (Directeur de thèse) Ecole Normale Supérieure de Lyon

Eric Clement Université Paris VI

Peter Holdsworth Ecole Normale Supérieure de Lyon

Jean-Pierre Hulin Université Paris Sud

Yves Pomeau Ecole Normale Supérieure de Paris

James Rice Harvard University (U.S.A.)

Table des Matières

1 Introduction *

1.1 Pourquoi étudier la fracture ? *

2 Théorie *

2.1 Quelques définitions utiles. *

2.2 Théorie de l’élasticité linéaire *

a) Tenseur des déformations *

b) Tenseur des contraintes *

c) Relations entre contraintes et déformations *

2.3 Propagation des ondes dans les milieux élastiques *

2.4 La fracture à l’equilibre *

a) Les modes d'ouverture d’une fracture *

b) L’analyse de Inglis *

c) Le critère de Griffith *

2.5 Les matériaux hétérogènes et leur approche théorique *

a) La percolation *

b) Self Organised Criticality (SOC) *

c) La rupture retardée. *

d) Les réseaux de fusibles *

3 Dispositifs expérimentaux et procédures de mesure *

3.1 Chambre à haute pression *

a) Principe des expériences *

b) Fonctionnement du système d’acquisition *

c) Détails de la machine *

d) Sur le mode de rupture *

3.2 Machine à traction *

a) Principe des expériences *

b) Fonctionnement du système d’acquisition *

c) Détails sur la machine *

3.3 Les échantillons *

a) Les géométries utilisées *

b) Propriétés des matériaux *

c) Les matériaux utilisés *

3.4 Le système d’acquisition *

a) Appareillages communs aux deux manipulations *

b) Appareillage de la chambre à haute pression *

c) Appareillage de la machine à traction *

4 Les résultats expérimentaux *

4.1 Observations préliminaires *

a) Rupture à charge linéaire dans le temps *

b) Rupture à charge constante *

4.2 Fracture et criticité *

a) Comportement critique d’un matériau hétérogène sous contrainte *

b) Le comportement du système près de la rupture *

c) Comparaison des résultats avec les modèles théoriques et discussion *

4.3 Emissions acoustiques et état du système *

a) Vitesse du son et état d'endommagement *

b) Points d'émission et état d'endommagement *

c) Distribution temps-fréquence et état d'endommagement *

d) Conclusions *

4.4 Le temps et le désordre dans la dynamique vers la fracture *

a) Pression constante *

b) Généralisation à tous types de charge *

c) Conclusions et comparaison avec d'autres expériences *

4.5 Effet Kaiser *

5 Simulation Numérique *

5.1 Définition du modèle *

5.2 Résultats *

a) Relation entre t et I *

b) Distributions de e et d t *

c) Allure de l'énergie relâchée près de la rupture *

d) Effet Kaiser *

5.3 Conclusions *

6 Conclusions et perspectives *

6.1 Emissions et état d'endommagement *

6.2 Comportement des échantillons soumis à une charge *

6.3 Nature des microfractures *

Bibliographie *

ANNEXE : Les articles publiés . ‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘‘...141

  1. Introduction
    1. Pourquoi étudier la fracture ?

Tout se casse. Rien dans la nature n'est à l'abri d'une fracture. Fracture, brisure, fissuration, coupure, rupture : les hommes ont inventé de nombreux termes pour désigner le même phénomène, mais il n'existe en fait aucune définition absolue de la fracture ; cela n'a pas été nécessaire, car le sens commun fait en sorte que tout le monde sache ce que c'est.

La compréhension du mécanisme de la fracture est important pour la physique fondamentale, et elle a de remarquables applications pratiques, en particulier dans la géophysique et l'ingénierie. En géophysique, la théorie de la fracture est primordiale pour la sismologie, l'étude et la prédiction des tremblements de terre et des explosions volcaniques et enfin pour la recherche et l'exploitation des gisements et des mines. En ingénierie, la méconnaissance de l'exact comportement d'un matériau soumis à une contrainte conduit à définir des paramètres de sécurité. Les objets, allant des petites pièces jusqu'aux plus grandes constructions, sont toujours faits plus robustes, afin de garantir leur solidité et d'empêcher qu'ils ne se cassent ; seule une meilleure connaissance du comportement des matériaux permettrait de baisser ces paramètres, et construire ainsi des appareils plus performants. Comprendre la nature de la fracture, et les mécanismes qui régissent ce phénomène apparaît donc comme nécessaire. Cependant, malgré l’importance du sujet, les connaissances théoriques qui s'y rapportent restent pauvres. Seuls quelques modèles théoriques et numériques ont été proposés : nous comparerons au cours de cette étude leurs prédictions avec nos résultats expérimentaux.

Dans cette thèse, nous étudierons exclusivement, en grande partie de manière expérimentale, mais aussi à l'aide d'un modèle numérique, la fracture des matériaux hétérogènes. La définition empirique de ces derniers est que, lorsqu'ils sont soumis à une contrainte, ils produisent des émissions acoustiques bien avant la rupture. La mesure de ces signaux, à l'aide d'une expérience montée dans notre laboratoire, permet de déterminer le point de départ et l'énergie des émissions acoustiques : ces données nous ont permis d'étudier les distributions spatiales et temporelles des précurseurs de la fracture et le temps de vie de l'échantillon. Nous avons ainsi pu montrer que le système a un comportement critique, c'est-à-dire ne possède pas d'échelles caractéristiques, ni en temps ni en énergie. De plus, une étude au voisinage du point de rupture semble signifier que la fracture est un phénomène critique que l'on ne peut représenter qu'en incluant une transition de phase dans le modèle. Enfin, nous mettrons en évidence l'importance des processus de nucléation, qui sont à l'origine de l'apparition de nouvelles microfractures dans les matériaux hétérogènes soumis à contrainte, et l'importance du désordre dans cet effet.

Nous verrons ainsi, au cours de cette thèse, comment nos expériences nous ont permis de mieux comprendre la nature du phénomène de la fracture. Certaines évidences expérimentales restant malgré tout mal comprises, un simple modèle numérique, reproduisant le comportement d'un matériau hétérogène soumis à contrainte, a été développé dans le but d'aider à la compréhension théorique.
 
 

  1. Théorie


Le but de ce chapitre est d’exposer les différentes théories proposées pour l’étude de la fracture dans les matériaux hétérogènes. Après avoir donné quelques définitions utiles, on exposera brièvement la théorie de l’élasticité linéaire, qui est à la base de toute théorie de la fracture. On verra ensuite comment se propagent les ondes dans un milieu élastique, puis comment le comportement d'un milieu homogène change si on lui introduit une fissure. Puis, en discutant les propriétés des matériaux hétérogènes, on verra que le seul type d’approche possible est celui statistique. Pour cette raison on présentera les théories de la percolation, de la Self Organised Criticality (SOC), de brisure par nucléation élaborée par Y. Pomeau et des réseaux de fusibles et de ressorts, qui sont souvent utilisés pour construire des modèles statistiques des fractures.

    1. Quelques définitions utiles.


Comme toute communauté, celle qui étudie la fracture a un langage qui lui est propre. Le but de ce paragraphe est de familiariser les non-spécialistes avec quelques-uns de ces termes.

On appelle courbe de charge, figure 1, le graphe montrant la contrainte extérieure en fonction de la déformation. Si en supprimant la contrainte externe la déformation disparaît totalement, on dit alors que le matériau a un comportement élastique. Dans ce cas, pour de petites déformations, la courbe de charge est généralement linéaire, le solide est appelé solide de Hooke et la pente de la droite est appelée module de Young. Si la courbe n’est pas linéaire, on définit le module de Young local comme la dérivée de cette courbe. En revanche, si en supprimant la contrainte externe la déformation ne disparaît pas, on dit que le matériau a un comportement plastique. Certains matériaux passent d’un comportement élastique à un comportement plastique lorsque la contrainte externe dépasse une certaine limite appelée seuil élastique.

Il existe deux grandes classes de fracture : la fracture fragile et la fracture ductile. La fracture est dite fragile si l’échantillon est élastique jusqu’à la rupture. Si au moment de la rupture le matériau a un comportement plastique, on dit alors que la fracture est ductile. Un même matériau peut se casser de manière fragile ou ductile ; ceci dépend de la méthode de chargement.

figure 1: Courbe de charge élastique (gauche) et plastique (droite)

Les microfractures sont des ruptures des défauts d’un matériau. La taille caractéristique des défauts dépend du matériau en question. Dans les milieux cristallins, la taille des microfractures est de l’ordre des distances intermoléculaires ; dans les matériaux composites, elle peut atteindre le millimètre. Dans tous les cas, elle est toujours négligeable par rapport à la taille du système. A cause de la relaxation du milieu, chaque microfracture est associée à une onde élastique.

    1. Théorie de l’élasticité linéaire


L’étude théorique de la fracture s’appuie sur les lois fondamentales de la théorie de l’élasticité linéaire. Il est donc nécessaire d’en introduire les concepts de base [,]. Considérons un corps solide en l’absence totale de force extérieure. Dans ce corps, non déformé, l’arrangement des molécules correspond à son état d’équilibre thermodynamique. Si l’on s’intéresse à un volume quelconque intérieur au corps en question, la somme des forces exercées sur ce volume par le reste du solide est nulle. En appliquant maintenant une force extérieure à ce solide, celui-ci subit une déformation entraînant un changement plus ou moins grand de sa forme et de son volume. Cette déformation est dictée par la modification des positions relatives des éléments du solide. Celui-ci se trouve alors écarté de son état d’équilibre initial, ce qui a pour conséquence l’apparition de forces qui tendent à le faire revenir à son état primitif. Ces forces internes, qui sont les résultantes de la déformation, sont appelées les contraintes internes. Celles-ci sont dues aux interactions des molécules du corps entre elles. La théorie de l’élasticité s’occupe des relations entre les déformations et les contraintes internes induites.

      1. Tenseur des déformations


Considérons un solide soumis à des forces extérieures. Soit le rayon vecteur de composantes x1 x2 et x3 dans un système de coordonnées cartésiennes. On définit le vecteur représentant le déplacement le vecteur qui représente le déplacement d’un point du corps dû à l’action des forces externes, figure 2a. Le tenseur des déformations, noté uij, est alors défini par la relation :

(.1,

où la sommation sur les indices répétés a été utilisée. Par construction, ce tenseur est symétrique. De plus, dans le cas de petites déformations, il se simplifie en :

(.2) 

L’intérêt de l’introduction de ce tenseur à la place du vecteur déplacement est de ne plus considérer le déplacement d’un point dans le solide, mais de voir comment deux points infiniment voisins s’éloignent ou se rapprochent sous l’effet des forces internes.

figure 2: Définition: a) du vecteur déplacement et b) du tenseur des contraintes s ij.

      1. Tenseur des contraintes


Le deuxième tenseur introduit en élasticité est le tenseur des contraintes. Il vise à traduire mathématiquement les contraintes internes dans le matériau. Celles-ci naissent d’une déformation et tendent à faire revenir le corps dans son état d’équilibre, sans déformation. En isolant par la pensée un volume du solide, le tenseur des contraintes s ij est la résultante des forces internes s’exerçant à la surface de celui-ci, figure 2b. Notons la composante de la force agissant sur une unité de surface perpendiculaire à . Ce tenseur est symétrique, , et à l’équilibre on a

(.3) .

Quand le tenseur des contraintes est diagonalisé, les valeurs propres sont dites les contraintes principales et les vecteurs propres les axes des contraintes principales.

      1. Relations entre contraintes et déformations

Dans le cadre de la théorie de l’élasticité et pour un solide homogène et isotrope, la relation entre le tenseur des déformations et le tenseur des contraintes est linéaire :

( .4) 

Les sont des constantes du matériau pouvant s’exprimer en fonction de deux paramètres seulement : le module de Young Y et le coefficient de Poisson . Le premier traduit la résistance du matériau à une déformation, il est homogène à une pression. Le second décrit la contraction latérale accompagnant une déformation longitudinale, il est sans dimension. Dans certaines cas, un autre jeu de paramètres est pertinent ; il s’agit des coefficients de Lamé et , qui sont reliés au module de Young et au coefficient de Poisson, par les relations suivantes :

( .5) .

En utilisant les coefficients de Lamé, la relation entre déformations et contraintes, dans le cas linéaire, est la suivante :

( .6) .

Cette relation est appelée loi de Hooke, un solide qui se comporte suivant une telle loi est appelé solide de Hooke.

Pour les matériaux élastique qui ne suivent pas la loi de Hooke, la relation entre les contraintes et les déformations n’est plus linéaire, mais reste une fonction bijective. La viscoélasticité introduit une dépendance temporelle dans la relation. Pour les matériaux plastiques, la relation dépend de l’histoire du matériau et n’est plus une fonction bijective.

    1. Propagation des ondes dans les milieux élastiques


Dans nos expériences, nous mesurons, au moyen de quatre microphones piézoélectriques, les ondes élastiques produites par des microfractures précurseurs. Ainsi, la vitesse de ces ondes est une donnée essentielle. Pour calculer ces vitesses, il faut auparavant déterminer les équations du mouvement. Pour ce faire, il faut égaler la force volumique des contraintes internes au produit de l’accélération par la densité  :

( .7) .

Dans le cas de la propagation d’une onde plane dans le matériau, on décompose le vecteur déplacement en deux parties : où satisfait à la condition et à la condition . En remplaçant dans l’équation du mouvement, eq.( 2.7), on obtient l’équation d’ondes usuelle à trois dimensions :

( .8 ) 

où est égal à ltet sont les vitesses d’ondes longitudinales et transverses et sont reliées aux constantes élastiques par les relations suivantes :

( .9 ) .

Ainsi, une onde élastique peut se décomposer en deux ondes se propageant indépendamment l’une de l’autre. Pour l'onde longitudinale, le déplacement est dirigé le long de la direction de propagation. Pour l'onde transversale, le déplacement est dirigé dans un plan perpendiculaire à la direction de propagation. La vitesse des ondes longitudinales est toujours plus grande que celle des ondes transverses. Le rapport entre les deux vitesses dépend seulement du module de Poisson n, et si l’on considère que dans la pratique n varie entre 0 et 0.5, on peut écrire que:

( .10 ) .

Enfin, les ondes se propageant au voisinage de la surface d’un milieu sans y pénétrer profondément sont un type particulier d’ondes élastiques. Ce sont les ondes de Rayleigh. Le vecteur déformation de l’onde est la somme des vecteurs et qui, au voisinage de la surface ne sont plus indépendants, mais se recombinent pour donner naissance à une onde de surface, dont la vitesse de propagation, appelé vitesse des ondes de Rayleigh, est une fraction de la vitesse des ondes transverses. Expérimentalement, il a été mis en évidence que la pointe de la fracture peut atteindre une vitesse maximale qui est environ la moitié de la vitesse des ondes Rayleigh.

    1. La fracture à l’equilibre


La mécanique de la fracture étudie l’influence de la charge extérieure sur les contraintes et les déformations dans les matériaux qui ont des défauts, généralement modélisés par des microfissures. Elle est née au début de ce siècle avec les travaux de Inglis (1913) [] et de Griffith (1920) []. Le premier analysa les contraintes s’exerçant sur un trou elliptique dans une plaque uniformément chargée, le deuxième donna son nom à un critère énergétique d’équilibre de la fracture. A l’origine, la mécanique de la fracture s’intéressait à la détermination des conditions de rupture. Elle ne s’occupait pas encore de comprendre les mécanismes et la mécanique de propagation d’une fracture. Cela a commencé à intéresser la communauté scientifique seulement dans les années 60.

      1. Les modes d'ouverture d’une fracture


La charge agissant sur les lèvres d’une fracture peut toujours être décomposée en trois modes d'ouverture indépendants, figure 3. Le mode 1 ou mode de traction correspond à la séparation des surfaces de la fracture sous l’effet de contraintes normales à celles-ci. Le mode 2 ou mode de cisaillement dans le plan correspond au cisaillement longitudinal des surfaces dans la direction normale au front de la fracture. Le mode 3 ou mode de cisaillement hors du plan, correspond au cisaillement latéral des surfaces de la fracture, parallèlement à son front. Dans nos expériences on impose une charge qui est assimilable au mode 1, les modes 2 et 3 étant négligeables.

figure 3: Les trois modes d'ouverture d'une fracture.

      1. L’analyse de Inglis


Le but de l’analyse est de déterminer les modifications de la distribution des contraintes dans un solide homogène dues à la présence d’un trou []. On considère une plaque contenant une cavité elliptique de semi-axes b et l, à laquelle on applique une charge extérieure le long de l’axe Y, figure 4. Si on suppose que les dimensions de la plaque sont grandes devant celles de l’ellipse, et que le grand axe de l’ellipse l est très grand devant b, on obtient que la plus grande concentration des contraintes apparaît en c:

( .11

où est le rayon de courbure en tête de l’ellipse et est égal à .

figure 4: Plaque contenant un trou elliptique et soumise à une charge extérieure s a.

Dans le cas où b<<c (le trou elliptique aplati), l’équation ( 2.11) se réduit à :

(.12) .

Le rapport s’appelle le rapport d’intensité des contraintes. La distribution des contraintes dépend donc de la forme de la fissure autant que de sa longueur. De plus, quand , la contrainte en c diverge.
 
 

      1. Le critère de Griffith

L’analyse de Inglis permet de déterminer la distribution des contraintes en présence d’une fissure. Toutefois, ceci n’est pas suffisant pour comprendre sa croissance. A. Griffith a été le premier, en 1921, à étudier la mécanique de rupture d’un point de vue énergétique []. Son idée est de considérer une fracture statique comme un système thermodynamique réversible, c'est-à-dire qu'une fissure peut se refermer. L’analyse consiste à déterminer la configuration qui minimise l’énergie libre du système. Dans cette configuration, la fracture est en équilibre instable à la limite de l’extension. L’énergie totale d'un système constitué par une plaque homogène, isotrope et d’épaisseur e, comportant une fissure de longueur 2l, figure 4, est la somme de deux termes :

, qui s’oppose à la création de nouvelles surfaces fracturées.

figure 5: Fissure plane dans un solide élastique chargé en mode 1.

On peut donc écrire :

(.13) .

Quand on dérive cette équation par rapport à une avancée infime dl de la fracture, on obtient la première expression du critère de Griffith. A l’équilibre thermodynamique, on a :

(.14) .

Le premier terme favorise l’extension de la fracture, le second s’y oppose. Dans le cas d'un chargement à force constante imposée, c'est-à-dire quand la force appliquée reste constante à mesure que la fracture avance, la théorie élastique prédit que :

(.15) .

Le signe négatif nous rappelle que l’énergie mécanique diminue au fur et à mesure que la fracture s’allonge, car l’énergie potentielle croit avec la longueur de la fracture. En intégrant les résultats d’Inglis (2.12) on obtient l'expression de l’énergie potentielle élastique emmagasinée dans le solide par unité de longueur du front de la fracture ;

(.16) .

Pour l’énergie de surface, Griffith écrivit, toujours par unité de longueur du front :

(.17) 

où est l’énergie de surface par unité d’aire, elle ne dépend que du matériau. L’énergie totale du système devient :

(.18) .

En appliquant la condition d’équilibre proposée par Griffith, on obtient que la charge critique minimale de propagation de la fracture :

(.19)  (Force constante).

De la même manière, on obtient une expression semblable pour un chargement à déformation constante, c'est-à-dire quand on impose un déplacement qui reste constant quand la fracture se propage. L'expression de l’énergie potentielle change ; .

On obtient alors :

(.20)  (Déformation constante).

Le critère de Griffith nous dit donc que si la fracture commence à se propager.

L’approche de Griffith présente quelques faiblesses, la plus frappante étant l'introduction de l’hypothèse de réversibilité du processus de la fracture, qui est en contradiction avec l’expérience. Même avec ses faiblesses, grâce à ses bonnes prédictions, le critère de Griffith reste un des outils théoriques les plus utilisés.

    1. Les matériaux hétérogènes et leur approche théorique


Les matériaux que nous avons étudiés, bois aggloméré et différentes fibres de verre, sont fortement hétérogènes (ou désordonnés). Toutes les propriétés du matériau, à différents degrés, dépendent du niveau de désordre. Lorsque l’échantillon est soumis à une charge, les défauts interagissent entre eux, certains s’attirent, d’autres se repoussent et d’autres encore s’ignorent, figure 6. Tout ceci dépend de leurs formes, de leurs positions par rapport à la force appliqué et leurs positions mutuelles. La distribution des contraintes dans le matériau est alors très hétérogène. En connaissant la forme et la position de tous les défauts, on pourrait en principe espérer calculer le comportement de l’échantillon en fonction de la charge appliqué. La mesure de la position et de la forme de tous les défauts est impossible et, de plus, le calcul serait valable seulement pour l’échantillon étudié. Ainsi, une étude de type statistique s’impose. Les différents modèles proposés pour l’étude de ces matériaux ont en commun la notion de milieu homogène équivalent []. Les propriétés d’un milieu désordonné varient spatialement.

figure 6: Interaction entre microfissures.

Supposons qu’il soit possible de définir un élément de volume représentatif qui soit petit par rapport à la taille du système mais grand par rapport à l’échelle du désordre (longueur de corrélation). Dans ce cas, on peut remplacer le matériau hétérogène réel par un milieu homogène virtuel qui a comme propriétés locales celles de l’élément de volume représentatif du matériau original. Cette opération constitue un processus d’homogénéisation. Le milieu homogène équivalent est alors utilisé pour le calcul des propriétés macroscopiques du matériau originel. Le processus d’homogénéisation se comprend aisément mais, parfois, s'applique très difficilement. Les difficultés majeures sont dues au calcul des propriétés locales du matériau [].

      1. La percolation


L’un des modèles les plus étudiés dans un passé récent est celui de la percolation [, ]. La raison en est la simplicité apparente du modèle et sa relation formelle avec les transitions de phase.

On définit le modèle de la façon suivante. Considérons un réseau régulier de taille infinie, et coupons une fraction (1-p) de liens choisis aléatoirement dans le réseau. Lorsque p est proche de 1, seuls quelques trous auront été crées. Au contraire lorsque p est proche de 0, l’ensemble du réseau est morcelé en petits amas. Entre ces deux cas extrêmes, il existe une valeur de p particulière, nommée seuil de percolation, et notée , telle que pour existe un amas d’extension infinie, et pour ne subsistent que des amas de taille finie. La percolation a pour objet de décrire les propriétés statistiques au voisinage immédiat de . Le phénomène physique mis en jeu est alors une véritable transition de phase du deuxième ordre. Le paramètre de contrôle de cette transition est la fraction p, le paramètre d’ordre étant la probabilité d’appartenir à l’amas infini. La percolation est donc un phénomène critique. A ce point précis, la distribution des tailles des amas, c’est-à-dire le nombre d’amas de taille s, le plus grand omis, est une loi de puissance :

(.21) .

L'exposant t est dit exposant critique. Il n’existe donc pas d’échelle de longueur caractéristique intermédiaire entre la maille du réseau et la taille du système (ou l’infini pour un système sans limite). Le système apparaît donc comme invariant d’échelle. Par exemple, l’amas infini au seuil de percolation est un objet autosimilaire (fractal). En revanche, au-delà du seuil, existe une échelle intermédiaire : la longueur de corrélation. En gros elle mesure la taille des plus grands amas pour , et la taille des plus grands trous pour . Beaucoup de propriétés macroscopiques sont contrôlées par l’échelle supérieure du problème : soit la longueur de corrélation, soit la taille du système ci celle-ci est inférieure. Au voisinage du seuil, la dépendance en fonction de l’échelle supérieure du problème est indépendante, dans une large mesure, des détails fins du modèle. Ainsi si nous changeons de réseau de support, ou si nous introduisons des corrélations à portée finie dans la probabilité d’existence des liens, alors les propriétés d’échelle ne seront pas affectées. Seules les caractéristiques fondamentales du modèle, telles que la dimension de l’espace dans lequel le réseau est plongé ou la topologie du réseau à grande échelle, déterminent la classe d’universalité du problème.

Les exposants critiques

Nous avons déjà mentionné que la percolation est un phénomène critique dont le paramètre de contrôle est la probabilité p et le paramètre d’ordre est la probabilité d’appartenir à l’amas infini. En conséquence, certains paramètres du système divergent, au voisinage du point critique, avec des lois de puissance. Les exposants de ces lois d’échelle sont appelés exposants critiques. Par définition du seuil de percolation on a, pour =0 et pour >0. s’annule au seuil en suivant la loi :

(.22)  pour 

où est un exposant critique. , ainsi que les autres exposants critiques décrits dans ce chapitre, a une valeur précise ne dépendant que de la dimension de l’espace. La valeur de en fonction de la dimension de l’espace est donnée dans le Tableau 2- 1, ainsi que les valeurs des autres exposants critiques détaillés dans la suite de ce paragraphe. Une autre caractéristique essentielle de la percolation concerne la distribution de taille des amas que nous avons définis auparavant et pour lesquels nous avons déjà vu, eq.(2.21), les propriétés au seuil de percolation.

Dimension de l’espace:

Exposant critique :

2D

3D

4D

b

0.14

0.44

0.56

t

2.05

2.20

2.28

n

1.33

0.88

0.64

s

0.39

0.45

0.50

Tableau 2- 1 : Exposants critiques de la théorie de la percolation []

Dès que l’on s’éloigne un tant soit peu du seuil de percolation, la distribution est tronquée. Pour , si on reste au voisinage de , on peut mettre la distribution sous la forme :

(.23) 

f est une fonction d’échelle et s un exposant critique qui peut s'exprimer en fonction de b et tet dont on trouvera les valeurs dans le Tableau 2- 1. L’argument de f introduit une coupure supérieure Smax à la distribution ns. Smax varie comme , cette coupure est fondamentale et va nous permettre de définir une longueur de corrélation x . Si l’on définit x comme la taille typique des plus grands amas que l’on trouve pour , on peut alors écrire que :

(.24) ,

n est un autre exposant critique dont on trouvera les valeurs dans le Tableau 2- 1. Pour p>pc, x donne la taille des plus grands trous dans l’amas infini.

Exemple d’application à la fracture

Le modèle le plus simple qu’on puisse envisager pour étudier la fracture est le suivant : On schématise le milieu réel par un réseau de liens. Tout lien a une probabilité (1-p) de se casser. Lorsque p=0, l’échantillon est en parfait état, tous les liens sont intacts. Au fur et à mesure que p augmente, le réseau perd des liens : l’échantillon s’endommage. On dit que l’échantillon est cassé lorsque le réseau a percolé (p=pc). Si on fait l’analogie entre p et une force externe appliquée au système, alors pc correspond à la force critique, i.e. la force nécessaire pour rompre l'échantillon. La théorie de la percolation nous permet aussi de prédire, au voisinage du seuil de percolation, le comportement de la longueur de corrélation x et de la distribution de trous ns en fonction de la force externe appliquée.

Ceci équivaut à connaître l’endommagement de l’échantillon en fonction de la charge extérieure au voisinage du point de rupture.

Ceci constitue un exemple très simple d'application de la percolation à la fracture. Des modèles plus réalistes, donc plus complexes, ont été conçus. Nous n’entrerons pas dans les détails de ces modèles, nous nous limiterons à confronter leurs prédictions avec nos résultats expérimentaux.

Mérites et faiblesses de la percolation

L’universalité des exposants critiques et la possibilité de trouver des lois très générales qui gouvernent les changements d’échelle dans un milieu fortement hétérogène, autorisent des schématisations simplistes qui n'affectent en rien les conclusions générales que l’on peut tirer du modèle. Cela a séduit beaucoup de physiciens. En conséquence, de nombreux modèles de percolation adaptés aux plus différents sujets ont été conçus. En revanche, la faiblesse cruciale de ce modèle est que sa validité se limite au voisinage immédiat du seuil de percolation. Or il est peu vraisemblable de trouver naturellement des systèmes qui peuvent être décrits par une dilution aléatoire, i.e. sans corrélations à longues portées, et qui de plus sont très proches du seuil de percolation, i.e. d’un point critique []. L’intérêt fondamental des études menées sur la percolation est d’avoir permis la mise au point des techniques d’analyse et des outils conceptuels propres à être étendus à des modèles plus complexes.

      1. Self Organised Criticality (SOC)


Une théorie qui est à la base de plusieurs modèles proposés pour étudier la fracture est la SOC, en français la criticalité auto-organisée. Cette théorie a été introduite en 1987 par Bak, Tang et Wiesenfeld [, ]. A l’origine elle devait expliquer le ‘fliker noise’ ou bruit 1/f et l’évolution de la structure spatiale des systèmes dynamiques avec beaucoup de degrés de liberté spatiaux et temporels. Ensuite le concept de système auto-organisé a été utilisé pour tenter d’expliquer d’autres phénomènes, et notamment celui de la fracture [, , , ]. Il n’existe pas une unique définition du SOC. Cependant l’idée est que certains systèmes évoluent tout naturellement, c’est-à-dire sans paramètre de contrôle, vers un état critique. Pour clarifier ces concepts on présente le modèle du tas de sable introduit dans le premier article concernant la SOC.

Modèle du tas de sable

On présente d’abord le modèle à 1 dimension []. Sur une ligne où se trouvent N sites, nous imaginons qu’existe un empilement, caractérisé par une série de hauteurs entières hi (une à chaque site i). Nous introduisons les pentes locales zi=hi-hi+1. Lorsqu’une particule est ajoutée au site i ( hi® hi+1), alors zi® zi+1 et hi-1® hi-1-1. Lorsque la pente locale de l’empilement dépasse une certaine valeur critique zc, alors se produit un réarrangement tel qu’une particule est enlevée du site i et ajoutée ou sire i+1, figure 7. Ainsi, pour z>zc :

(.25) 

Enfin, nous considérons qu'une particule qui arrive au dernier site est perdue, i.e. le bord est ouvert. En revanche, on considère fermé le bord de gauche, c’est-à-dire qu’on impose zo=0.

figure 7: Modèle du tas de sable, définition des règles.

En partant de n’importe quelle condition initiale, le système s’organise pour arriver à son état d’équilibre qui est représenté par la configuration où toutes les pentes sont égales à zc. Dans cette configuration, si dans n’importe quel site nous ajoutons une particule, nous aurons une série de réallocations qui se terminera seulement quand la particule perturbatrice sortira du système (par le bord ouvert, figure 8a). De plus, le système se retrouvera dans le même état d’équilibre (instable) qu’auparavant. Une petite perturbation se répand donc à tout le système. On définit par le terme avalanche la série de réallocations qui reporte le système à l’équilibre. La taille s des avalanches est le nombre de sites qui participent au processus. Dans le modèle à 1 dimension toutes les avalanches sont de taille N. Le modèle unidimensionnel décrit bien la signification d’auto-organisation et d’état critique auto-organisé. Pour avoir une dynamique moins triviale il faut introduire une deuxième dimension.

Dans le modèle bidimensionnel [] le système va toujours vers un état critique auto-organisé, la différence est que cette fois une petite perturbation ne se répand pas forcement à tout le système. Elle peut provoquer des avalanches de n’importe quelle taille. Le système peut trouver un état d’équilibre avant que la perturbation rejoigne le bord. Mathématiquement cela se traduit par une loi de puissance pour la distribution de la taille des avalanches ns :

(.26) .

D’autres paramètres du système comme la durée temporelle des avalanches et la rugosité du profil du tas ont également un comportement critique.

Etat critique et état critique auto-organisé

Une des différences principales entre état critique et état critique auto-organisé est la suivante : un point critique ‘traditionnel’ est une transition entre deux états stables (phases) du système.

figure 8: a) Etat critique du tas de sable unidimensionnel. b) Dynamique de l'état critique et de l'état critique auto-organisé.

Pour avoir la transition il faut guider le système avec un paramètre de contrôle. Un point critique auto-organisé se trouve entre deux états instables du système. Ici on n'a pas besoin d’un paramètre de contrôle, le système évolue naturellement vers un tel état, figure 8b. Dans un système SOC l'état critique est donc un attracteur de la dynamique []. L’absence d’un paramètre de contrôle et d'un point critique dans les systèmes SOC joue, à notre avis, en défaveur de l’application des modèles SOC pour l’étude de la fracture. Il est évident que, dans les systèmes réels, le paramètre de contrôle, une force ou une déformation, est nécessaire pour avoir la rupture. Depuis l’article originel de 1987, de nombreux modèles de systèmes SOC ont été élaborés [-]. Dans le chapitre consacré aux mesures nous verrons les similitudes et les différences entre les prédictions des modèles qui prétendent modéliser la fracture dans les matériaux hétérogènes et nos résultats expérimentaux.
 
 

      1. La rupture retardée.


Certains matériaux, s'ils sont soumis à une contrainte constante, finissent par se casser au bout d’un temps t qui dépend de la valeur de la contrainte appliquée [, , , , ]. Ce phénomène a été observé dans les systèmes microscopiques et macroscopiques. Yves Pomeau a élaboré une théorie [] de ce phénomène qui semble bien s’accorder avec les expériences conduites sur des films de Langmuir [, ] et sur des gels [].

Pomeau établit l’analogie entre le rôle d’une fissure marginale dans un solide sous tension et celui du noyau de nucléation de Bekker-Döring [] dans les transitions de phases du premier ordre. Rappelons la notion de nucléation d’une nouvelle phase dans une phase mère (phase initiale). La transformation d’une phase en une nouvelle est le résultat des fluctuations de composition ou d’arrangement moléculaire, qui sont très localisées et qui sont engendrées par un processus de diffusion moléculaire. La nouvelle phase formée constitue un noyau et est énergiquement instable tant que son volume est insuffisant. En effet, l’énergie de surface, emmagasinée dans l’interface la séparant de la phase mère, est particulièrement importante par rapport à l’énergie nécessaire à sa formation. Cette dernière est égale à la différence d’énergie entre les deux phases. Pour décrire l’évolution du noyau formé, on fait appel au concept de noyau critique de Gibbs. Ceci est le noyau pour lequel l’énergie de surface est exactement compensée par le gain d’énergie de volume. Ce noyau est en équilibre instable : une augmentation de sa taille conduit a sa croissance, une diminution a son annihilation. Volmer fut le premier à étudier les conséquences des idées de Gibbs en ce qui concerne les aspect cinétiques de la formation de la nouvelle phase. La conclusion la plus importante est que la probabilité de formation d’un noyau dépend de la sursaturation du milieu environnant en suivant la loi exp(-W/kT), où T est la température absolue, k la constante de Boltzmann et W l’énergie d’activation, c'est-à-dire l’énergie nécessaire pour former le noyau critique.

Dans le cas qui nous intéresse, nucléation d’une fissure dans un solide sous tension, les dimensions du noyau marginal sont déterminées par l’équilibre entre les effets de volume et de surface de la nouvelle phase nucléée. Ainsi si W(P) est l’énergie d’activation, fonction de la pression P, la durée moyenne t nécessaire pour nucléer par fluctuations thermiques est donnée par :

(.27) .

Si dans un solide à trois dimensions, on considère une fissure très aplatie à symétrie cylindrique, son énergie élastique vaut, en négligeant des facteurs d'ordre 1

(.28) ,

L est son diamètre dans le plan et h l'épaisseur dans la direction perpendiculaire. Son énergie capillaire est :

(.29) 

g est l’énergie de surface. D’autre part, suivant les lois élémentaires de l’élasticité des solides, la flexion due à une pression P sur une portée L est de l'ordre de h’PL/Y, où Y représente le module de Young. D'après le critère de Griffith (par. 2.4c), pour la fissure marginale :

(.30) 

Ceci donne :

(.31) 

et :

(.32) ,

g est une constante qui prend en compte les facteurs géométriques. Cela donne une dépendance assez singulière du temps de nucléation en fonction de la pression :

(.33) ,

Po est un échelle de pression caractéristique.

Dans le cas d’un solide à deux dimensions, cette théorie prévoit une dépendance du type . Cette loi a été effectivement observée dans certains microcristaux. Plus en général, pour un solide de dimension d, on suppose que [] :

(.34) .

Des expériences menées sur des gels ont montré que si l’on considère ceux-ci comme des solides de dimension d, où d est la dimension fractale du réseau de polymères les formant, alors la dépendance du temps de rupture t en fonction de la pression appliquée s’accorde bien avec la loi prédite par l'eq.(2.34).

Dans le chapitre analysant les mesures, on comparera les prédictions de ce modèle avec les résultats expérimentaux. Une analyse critique des hypothèses théoriques du modèle, qui prend en compte le contexte expérimental, sera ensuite développée.

      1. Les réseaux de fusibles

Un modèle numérique très étudié par les théoriciens (numériciens) de la fracture est le réseau de fusibles [, ]. Dans ce modèle, on modélise le solide par un réseau où chaque lien est un fusible. Le comportement global du réseau est fortement déterminé par la caractéristique courant-tension de chaque fusible. Cette caractéristique peut être linéaire, pour simuler un comportement élastique (figure 9a), ou non-linéaire, pour simuler un comportement plastique (figure 9b). Dans les deux cas, un fusible se comporte comme une conductance G tant que le courant qui le traverse reste inférieur à un courant critique ic. Si ic est dépassé, alors le fusible fond. Dans le cas linéaire le fusible devient isolant, dans le cas non-linéaire le courant sature. Lorsque un fusible qui se trouve dans un réseau fond, les courants se réorganisent.

Les simulations sont conduites de la manière suivante : on applique au réseau un courant I (ou une tension V) croissant jusqu’au moment où un amas connexe de fusibles fondus traverse le réseau, i.e. le réseau se casse.

Dans le cas d’un réseau constitué par des fusibles dont la caractéristique courant-tension est de type linéaire, au point de percolation le réseau devient isolant, aucun courant ne peut plus le traverser. En revanche, si les fusibles constituant le réseau ont une caractéristique courant-tension de type non-linéaire, au point de percolation le réseau devient totalement plastique.

figure 9: Caractéristique courant-tension linéaire a) et non-linéaire b).

Le réseau de fusibles présente un avantage certain sur le problème mécanique : il est scalaire, contrairement à son homologue qui demande la connaissance d’un champ vectoriel. Cette différence essentielle entre le réseau de fusibles et la réalité implique que ce modèle est imparfait, et qu’il ne pourra jamais expliquer tous les phénomènes observés dans une fracture. Pourtant, les physiciens s’accordent à penser que ce modèle contient tous les ingrédients pour donner de bons résultats. En effet, il permet de simuler l’apparition, l’interaction et la coalescence de microfractures (l’équivalent mécanique d’un fusible qui fond), grâce à la redistribution des efforts qui suit chaque microfracture.

Analogie avec le problème mécanique

L’analogie avec le problème mécanique est obtenue en remplaçant une tension par un déplacement et un courant par une force. Ce modèle a donc une interprétation mécanique aisée : à l’échelle d’un lien, la relation entre le déplacement et la force est linéaire (loi de Hooke, eq. ( 2.6)) tant que la force reste inférieure à une valeur critique au-delà de laquelle le lien est brisé ou déformé définitivement. Cette analogie est exacte dans le cas d’une déformation antiplane : pour une telle déformation, le vecteur champ de déplacement s’écrit . Dans cette hypothèse, on a : . L’équation d’équilibre pour une déformation élastique d’un solide homogène isotrope, en absence de forces internes, s’écrit dans le cas général :

(.35) 

n est le coefficient de Poisson (voir 2.2c). Cette équation se réduit donc, dans le cas d’une déformation antiplane à :

(.36) .

Pour une déformation antiplane, seuls les termes uzx et uzy et leurs symétriques uxz et uyz du tenseur déplacement sont non nuls :

(.37) .

En utilisant la loi de Hooke reliant s ij et uij, eq. ( 2.6), on trouve de même que les seuls s zx et s zy et leurs symétriques sont non nuls :

(.38) 

Y est le module de Young.

Les équations (2.36), (2.37) et (2.38), montrent qu’il existe une analogie simple entre ce problème et celui de l’électrostatique. En effet, le changement de variable

conduit aux équations suivantes :

Il ne reste plus qu’à discrétiser le problème électrostatique pour obtenir le modèle du réseau de fusibles. On voit donc que pour la classe des déformations antiplanes, l’analogie entre le réseau de fusibles et la fracture d’un solide est plus qu’une simple ressemblance.

Dans le cas général, on peut toujours décrire l’équilibre du solide par la relation de l'eq.(2.3) qui s’identifie à la relation électrostatique . Il est donc tentant d’identifier la iième composante de la contrainte à un courant mais c’est sans compter sur la relation supplémentaire qui n’a pas son équivalent mécanique dans le cas général. On retiendra néanmoins que le problème électrostatique, et donc le réseau de fusibles, est assez proche du problème mécanique.

Les différentes approches

Dans la littérature [-] on trouve deux approches différentes de la rupture, selon que l’on suppose G uniforme et ic distribué aléatoirement ou le contraire. La distribution choisie pour la variable aléatoire permet de simuler différents types de matériaux. Les conditions aux limites permettent de simuler différentes formes de déformation.

Dans le chapitre consacré aux résultats nous verrons les similitudes et les différences entre les prédictions des différents types de réseau de fusibles et nos expériences.
 
 
 
 

  1. Dispositifs expérimentaux et procédures de mesure
    1. Chambre à haute pression
      1. Principe des expériences


Le principe des expériences de la chambre a haute pression est le suivant : des échantillons hétérogènes circulaires, de diamètre 22 cm et d'épaisseur inférieure à 4 mm, sont placés entre deux chambres étanches, figure 10. Dans l'une des deux chambres on injecte de l'air comprimé. L'échantillon est donc soumis à une différence de pression P=P1-P2. Le capteur de pression, DPD, et le détecteur de déplacement, DS, nous fournissent, respectivement, la pression P appliquée à l'échantillon et le déplacement du centre de la plaque. Un système de rétroaction nous permet d'imposer, à notre choix, la pression, la déformation ou le flux d'air comprimé au système. Des émissions acoustiques sont produites par l'échantillon lorsqu'il est soumis à une charge. Pour les mesurer, quatre microphones piézo-électriques Mi sont placés sur le côté de l'échantillon avec un angle de 90° entre eux. Le système d'acquisition est déclenché quand les signaux des microphones passent le niveau du bruit. Un ordinateur enregistre alors le temps t qui s'est écoulé entre le début de l'expérience et le moment de la détection, l’énergie acoustique e émise par l’événement, la pression P le déplacement du centre de la plaque au temps t, et les signaux des quatre microphones dans l'intervalle entre le temps t et le temps (t+ts). L'énergie e d'une émission acoustique est définie de la manière suivante :

(.1) ,

Ai représente l'amplitude du signal détecté par le microphone Mi. La fenêtre temporelle a été choisie de 30 ms car on a statistiquement constaté que c'est la durée maximale des émissions acoustiques. La charge est maintenue jusqu'à la cassure complète de la plaque.

figure 10: Schéma de la chambre à haute pression
 
 

      1. Fonctionnement du système d’acquisition


Notre système d'acquisition est représenté sur la figure 11. Sur cette figure, DS et DPD représentent respectivement le capteur de déplacement et le capteur de pression. Les signaux mesurés par ces deux capteurs sont filtrés par le filtre passe-bas F. Mi (i=1,2,3,4) représentent les quatre microphones et FA est un filtre passe-bande actif. SC est un oscilloscope numérique à quatre canaux. ADC1 et ADC2 sont deux convertisseurs analogique-digital : le premier acquiert avec une fréquence de 0.2 Hz et le deuxième seulement lorsqu'une émission acoustique est détectée. EV est la valve électronique qui règle le flux d'air comprimé qui rentre dans la machine à haute pression. L'ouverture de la vanne EV est contrôlée par l'amplificateur différentiel FBA, qui compare la pression ou la déformation de l'échantillon (selon la position de l'interrupteur S1) avec le signal de référence généré par RG. HPR représente le réservoir d'air à haute pression. Les caractéristiques de chacun de ces composants seront détaillées à la fin de ce chapitre.

figure 11: Le système d’acquisition

Lorsque (au temps T1 sur la figure 12) l'amplitude d'un signal détecté par un des quatre microphones dépasse une certaine valeur de seuil, ED commence le calcul de l'énergie e des signaux provenant des microphones et au même instant déclenche l'acquisition de SC. SC enregistre les signaux provenant des microphones pendant ts et ensuite envoie les données à l'ordinateur. Ceci se passe en moins de 20 ms. Au temps T3 sur la figure 12, une fois que ED a calculé l'énergie e (30 ms après le déclenchement) l'acquisition de ADC2 démarre. ADC2 enregistre la pression P, le déplacement du centre de la plaque w et l'énergie e . L'acquisition de ADC2 terminée, après 2 ms, au temps T4, le système est de nouveau prêt pour une nouvelle acquisition.

Notre système d'acquisition ne peut donc pas distinguer deux événements qui se produisent à moins de 32 ms l’un de l’autre. Cependant, l’énergie des deux événements est enregistrée.

figure 12: Acquisition d’un signal

      1. Détails de la machine


Dans la figure 13 on montre les détails de la chambre à haute pression. Elle se compose de deux chambres (C1 et C2 ) en aluminium. Le diamètre intérieur d2 de la chambre C1 est de 20 cm. La partie extérieure supérieure de la chambre du bas C1 est munie d'un filetage permettant à la chambre supérieure C2 de se visser sur elle. Une fois l'échantillon (de diamètre d1 ) posé sur la partie supérieure de la chambre C1, C2 est vissée sur C1. L'échantillon reste ainsi bloqué hermétiquement entre les deux chambres.

figure 13: La chambre à haute pression

Dans ces conditions, seule la partie de l’échantillon comprise à l’intérieur du diamètre d2 est soumise à la charge. Pour la suite on considèrera donc que les échantillons ont une surface de . La structure est conçue pour supporter une pression maximale de 5 atm. Sur les côtés de la chambre C2 sont pratiqués, avec un angle de p /2 entre eux, quatre trous de 3 mm de diamètre qui permettent aux microphones de toucher le bord de l’échantillon. Deux trous de 1 cm de diamètre sont présents dans la chambre C1. Le premier permet à l’air comprimé de rentrer, le deuxième permet au capteur de mesurer la pression à l’intérieur de C1. Le capteur de déplacement est fixé, verticalement, dans l’axe de symétrie de C2.
 
 

      1. Sur le mode de rupture

Lorsque de l’air comprimé est injecté dans C1, l’échantillon commence à se déformer. Si on augmente la pression ou si on attend assez de temps, l’échantillon se déforme de plus en plus et il casse. En général, au moment de la rupture, le déplacement du centre de la plaque est beaucoup plus grand que son épaisseur.

Dans ces conditions, malgré ce que l’on pourrait penser à première vue, la fracture de la plaque n’est pas due aux contraintes de cisaillement (mode III). En fait, les contraintes de traction (mode I) sont beaucoup plus élevées que celles de cisaillement (voir prochain paragraphe). On peut donc considérer que l’échantillon est cassé par traction. Une question surgit alors spontanément  :  pourquoi ne pas avoir utilisé une machine à traction normale ‘  La réponse est simple : Dans une machine à traction traditionnelle il y a toujours des parties mécaniques en mouvement. Ceci génère un bruit acoustique. Or dans nos expériences, qui se basent sur l’analyse des émissions acoustiques des microfractures, il est fondamental de réduire au minimum le bruit acoustique. Dans la manipulation de la chambre à haute pression il n’y a aucune partie mécanique en mouvement, sauf l’échantillon. Le bruit acoustique de l'environnement est ainsi réduit au maximum.

Distributions des contraintes et des déformations

Dans ce paragraphe on va montrer que dans la chambre à haute pression, lorsque le déplacement du centre de la plaque devient plus grand que l’épaisseur de l’échantillon, les contraintes de tractions sont plus élevées que celles de flexion. On montrera aussi la distribution des déformations dans la plaque.

figure 14: a) La plaque et le système de repère. b) Forces agissant sur une unité de volume

On suppose qu’une plaque circulaire, de rayon a, est fléchie par une charge P uniformément répartie, figure 14. Les bords de la plaque sont encastrés. Puisque la flèche est symétrique par rapport au centre de la plaque O, le déplacement d’un point du plan moyen se décompose en deux parties. Une composante u dans la direction radiale et une autre wp perpendiculaire au plan de la plaque. La déformation dans la direction radiale e r est []:

(.2) 

La déformation e t dans la direction tangentielle (parallèle à d’), en fonction de la distance du centre r, est :

(.3) 

Supposant que l’équation de la forme de la surface soit la même que pour des faibles flèches [], alors :

(.4) .

w est la flèche du centre de la plaque.

En représentant les forces de traction correspondantes, par unité de longueur, par Nt et Nr et appliquant la loi de Hooke, on obtient :

(.5) ,

Y et e représentent respectivement le module de Young et l'épaisseur de la plaque. On obtient l’expression de l’effort tranchant Qt , figure 14b, en considérant les moments de toutes les forces par rapport à un axe perpendiculaire au rayon et en imposant l’équilibre :

(.6) 

D représente la rigidité à la flexion qui dans ce cas [] est égale à :

(.7) .

On prend, pour les déplacements radiaux, un développement du type :

(.8

dont chaque terme satisfait aux conditions au contour u(0)=u(a)=0. On se limite à calculer u au premier ordre. Pour trouver les expressions de Nr, Nt et Qt on doit donc déterminer les valeurs de c1, c2 et w. Les constantes c1 et c2 se déterminent alors par la condition imposant à l’énergie totale du système U d’être minimum pour une position d’équilibre de la plaque : .

L’énergie U est donnée par la somme de l’énergie de déformation due à la tension du plan moyen et du travail de flexion. Après quelques calculs [] on trouve :

(.9) ,

où e représente l'épaisseur de la plaque. Si on insère les deux premiers termes de l’eq. (3.8) et qu'on impose les conditions d’équilibre à U, on obtient :

(.10) 

On trouve w en appliquant le principe des déplacements virtuels :

(.11) 

Substituant les eq. (3.8) et (3.4) dans cette expression, on obtient une équation du troisième degré pour w :

(.12) 

Seule une des trois solutions de cette équation est réelle et donc physiquement acceptable. En insérant les eq. (3.2), (3.3), (3.10) et la solution réelle de l’eq. (3.12) dans les eq. (3.5) et (3.6), on obtient les expressions de Nr, Nt et Qt en fonction de r. Les allures de ces paramètres en fonction de r sont montrées dans la figure 15. De la figure 15 on voit clairement que Qt est négligeable par rapport à Nt et Nr. On peut donc considérer que les échantillons se cassent sous une contrainte de traction. A partir des eq. (3.7) et (3.12) on peut établir la courbe de charge :

(.13) 

Dans le chapitre dédié aux résultats expérimentaux on verra que cette équation s’accorde bien avec nos mesures.

figure 15: La distribution des contraintes : l'effort tranchant Qt est négligeable par rapport aux forces (par unité de longueur) Nr et Nt. On peut donc considérer que les échantillons se cassent sous une contrainte de traction.

    1. Machine à traction
      1. Principe des expériences


Comme on l’a déjà dit, pour vérifier que les résultats obtenus sont indépendants de la géométrie utilisée, on a fait des expériences similaires sur une machine à traction traditionnelle []. Cette fois les échantillons sont rectangulaires et la force imposée est de traction pure, mode I d’ouverture. Les microphones sont placés sur le côté de l’échantillon, figure 16.

figure 16: Schéma de la machine à traction.

Le principe des expériences et le système expérimental utilisé sont les mêmes que précédemment. Les seules différences sont que dans ce cas la charge imposée à l’échantillon est fournie par un moteur pas à pas Mt (et non par de l’air comprimé) et que la rétroaction est contrôlée par l’ordinateur Pc, figure 17. La valeur de la force appliquée à l’échantillon est mesurée par le capteur piézoélectrique FD, celle du déplacement par le micro-contrôle MC.

figure 17 : Le système d’acquisition de la machine à traction.

      1. Fonctionnement du système d’acquisition


Pour acquérir les signaux nous avons utilisé le même système que dans les expériences de la chambre à haute pression.

      1. Détails sur la machine

La machine à traction que l’on a utilisé, a été conçue et réalisée par l’équipe technique du laboratoire. Cette machine en acier est faite pour charger uniaxialement une plaque fine en mode I d’ouverture, figure 16. Pour contraindre la plaque, celle­ci est préparée en collant et clouant à ses extrémités des barrettes parallèles entre elles, et qui vont supporter la traction et la transmettre à l'échantillon. La distance entre les mâchoires peut varier. On charge l’échantillon en augmentant la distance entre les mâchoires. Une des mâchoires reste en fait immobile, et un capteur de force permet de mesurer la force exercée par la plaque sur la mâchoire. Sur le côté de cette mâchoire sont placés les quatre microphones qui nous permettent de mesurer les émissions acoustiques. Les microphones touchent le bord de l’échantillon, figure 16. Le mouvement de l'autre mâchoire est imposé par un moteur pas­à­pas contrôlé par ordinateur. Il permet de mesurer le déplacement de l'échantillon. Les essais pour mesurer la raideur de la machine et du capteur de force ont été faits []. La raideur de la machine, Km=2 107 N/m, peut être tenue en compte en considérant un ressort monte en serie avec la plaque. Donc, si tga est la pente de la courbe de charge, le module d'Young Y de la planche est :

(.14) .

e, H et L sont respectivement l’épaisseur, la hauteur et la longueur de la plaque.

Caractéristique du système de chargement

La mâchoire immobile est maintenue en place par une capteur de force (Hydrotonics­TC) ; ainsi, la contrainte s'exerçant sur la plaque est connue. La sensibilité du capteur est de 10 V pour 20000 N. Le mouvement de la seconde mâchoire est imposé par un moteur pas­à­pas (Micro Contrôle modèle UE42), asservi à un contrôleur (Micro Contrôle ITL09). Le moteur entraîne en rotation une vis sans fin déplaçant la mâchoire. Le pas minimal pour le déplacement de la mâchoire est de 0.1 m m. La vitesse de déplacement généralement utilisée est de 5 ou 10 m m/s . Les forces caractéristiques auxquelles sont soumises les échantillons avant de se casser sont de l’ordre de quelques centaines de Newton.

Le parallélisme entre les mâchoires

Le parallélisme entre les mâchoires est suffisant. Celles­ci n'exercent pas de torsion sur la plaque. L'angle entre les deux mâchoires est inférieur à 0.5 mrad. En effet, les mâchoires sont longues de 20 cm et la différence maximale entre les mâchoires est inférieure à 100 m m. Ceci semble assurer des conditions limites constantes, autant à déplacement constant qu'à force constante. De même, les barrettes sont collées avec un parallélisme inférieur à 1 mrad. Ceci nous est assuré par le fait que les barrettes sont collées et clouées en utilisant un montage n'autorisant un jeu que de 0.1 mm également. Le déplacement s'exerçant sur la plaque est constant à moins de 200 m m []. Sur l'ensemble de l'échantillon, le parallélisme est assuré à moins de 200 m m. On peut évaluer l'influence d'un tel écart en calculant la force tangentielle induite par un tel chargement.

figure 18: La force tangentielle.

Sur la figure 18, nous avons tracé cette petite force tangentielle. Il est aisé d'évaluer cette force tangentielle Ft. Celle­ci est égale à 10-3 F. On peut alors la comparer à la contraction de Poisson. Plus exactement, on peut comparer cette force à la force Ft nécessaire pour s'opposer aux déplacements des bords libres de l'échantillon. Cette force Ft est égale, en fonction de la force normale F, à :

(.15) 

Dans la configuration minimisant cette force de contraction de Poisson, on obtient :

(.16) 

La force tangentielle Ft est, ainsi, toujours inférieure à 1% de cette force de contraction ; elle est donc négligeable.

    1. Les échantillons
      1. Les géométries utilisées


Les échantillons utilisés dans la chambre à haute pression ont une forme circulaire, ceux utilisés dans la machine à traction sont par contre rectangulaires. Plusieurs matériaux ont été utilisés, ils seront détaillés par la suite.

figure 19: Echantillons : (a) pour la chambre à haute pression (b) pour la machine à traction.

Dans la figure 19a est montré un prototype d’échantillon de la chambre à haute pression. Le diamètre est de 22 cm, l’épaisseur dépend du matériau qu’on utilise ; il est de l’ordre de quelque millimètre, Tableau 3-1. Dans la figure 19b est montré un archétype d’échantillon utilisé dans la machine à traction. La hauteur H est de 20 cm, la longueur L de 27 cm. L’épaisseur e est de 4 mm. Les barrettes permettant aux échantillons de se faire contraindre par les mâchoires sont fixées à l’échantillon par de la colle et des clous. La longueur de barrettes est l=2 cm, les autres dimensions sont identiques à celles de l’échantillon.

      1. Propriétés des matériaux


Il est utile, et dans certains cas indispensable, de connaître certaines des propriétés physiques des échantillons. Pour la localisation spatiale des points d'émission des événements acoustiques il est nécessaire de connaître la vitesse de propagation des ondes, dans la bande de fréquence de mesure, dans l’échantillon. Le module de Young Y et le coefficient de Poisson n sont les deux propriétés mécaniques dont nous avons besoin pour l’étude de la courbe de charge et de la rupture à charge constante. Dans les paragraphes suivants, on décrit les procédures de mesure utilisées pour la détermination de ces paramètres.

Détermination de Y, n , vt et vl

Nous avons calculé Y et n de manière indirecte, en utilisant les valeurs des vitesses de propagation des ondes transverses vt et longitudinales vl. On a mesuré ces deux vitesses en évaluant le temps de vol d’un signal entre un microphone émetteur et un microphone récepteur, la distance entre les microphones étant connue. Les mesures ont été faites dans la bande de fréquences comprises entre 10 et 60 kHz, c'est-à-dire la bande passante de notre système d’acquisition. Dans cet intervalle de fréquences vt et vl sont constantes, dans la limite des incertitudes expérimentales. Ceci est vrai pour tous les matériaux qu’on a utilisés. L’erreur de mesure sur les vitesses est de l’ordre de 3%. Ceci implique que les incertitudes sur Y et n , compte tenu de l’erreur de 2% sur la densité r , sont de l’ordre de 10% et de 12% respectivement.

Les valeurs de Y obtenues avec cette technique ont été comparées avec celles données par le constructeur ou avec les résultats obtenus par des mesures faites à la machine à traction. Ceci dépend du matériau. On trouve un bon accord parmi toutes ces évaluations.

Mesure du coefficient d’atténuation Ka

L’un des buts de nos expériences est l’étude statistique de l’énergie e relâchée par les émissions acoustiques. Ceci est fait sans tenir compte des positions des points d’émissions des microfractures par rapport aux positions des microphones. Pour que ce soit correct il faut que, dans la bande passante du système d’acquisition, le coefficient d’atténuation des ondes élastiques dans le milieu Ka soit petit selon le critère suivant : à une onde élastique qui se propage à l’intérieur de la plaque, est associée une énergie e qui dépend de son point d’émission.

figure 20: Schéma de mesure de Ka dans la chambre à haute pression

En considérant tous les points d’émission possibles, on peut donc définir l’énergie maximale e max et l’énergie minimale e min qui peuvent être associées à un signal. On considèrera que l’atténuation des ondes élastiques est négligeable si x =e min/e max est inférieur à 10%. Pour évaluer x , on a mesuré ka dans tous les matériaux qu’on a utilisé.

A cause du fait que le coefficient de couplage Ci entre le microphone Mi et l’échantillon varie a chaque fois qu’on déplace Mi, on ne peut pas mesurer ka simplement en variant la distance entre un microphone émetteur S et un microphone récepteur Mi.

figure 21: Extrapolation du coefficient d'atténuation ka

Pour évaluer ka sans avoir à mesurer les Ci nous avons utilisé la procédure suivante : sur le côté d’un échantillon installé dans la chambre à haute pression, on a placé deux microphones récepteurs M1 et M2, figure 20. Ces microphones mesurent l’amplitude des signaux envoyés par un microphone émetteur S placé à une distance d1 de M1 et d2 de M2. On fait ensuite varier d1 et d2. Si Ai est l’amplitude du signal mesuré par Mi, alors :

(.17) 

As est l’amplitude du signal envoyé par S et Cs le coefficient de couplage entre S et l’échantillon. Le rapport A entre A1 et A2 vaut donc :

(.18) .

La pente de la droite qu’on trouve en interpolant le log A en fonction de d1-d2 nous donne donc la valeur de Ka, figure 21. Les résultats obtenus pour les différents matériaux sont résumés dans le Tableau 3-1. La valeur de ka la plus élevée qu’on a mesuré est celle du bois aggloméré : 0.07±0.005 cm-1. Si x est négligeable dans le bois, alors il l’est aussi pour tous les autres matériaux considérés.

Chambre à haute pression : évaluation de x dans le bois

Considérons la géométrie de la chambre à haute pression. Supposons que les quatre microphones Mi soient identiques et que les Ci soient égaux : Ci=C pour i=1,2,3,4. Le signal de sortie est la somme des signaux mesurés par les 4 microphones. Si un signal d’amplitude unitaire est émis d’un point p(x,y) de la plaque, l’énergie e (p) du signal de sortie est alors :

(.19

di est la distance entre le point d’émission p est Mi. Dans le système de repère représenté dans la figure 22, on peut écrire :

(.20) 

On obtient x en calculant e (p) pour tous les points P de la surface de la plaque et en faisant ensuite le rapport entre la valeur minimale et celle maximale de e (p). Dans la figure 22, on montre e (p), normalisé à la valeur maximale, sur la surface de la plaque. On peut remarquer que les zones ou l’on perd le moins d’énergie sont celles qui sont près d’un microphone, même si elles sont loin des trois autres microphones, et celle du centre. Les zones ou l’on perd le plus de signal sont celles entre deux microphones. Dans le cas du bois, ka=0.073 cm-1, x min=0.9.

figure 22: Distribution de x dans la chambre à haute pression

L’erreur introduite par l’atténuation est donc négligeable. L’effet de l’atténuation est encore plus négligeable si on considère le fait que le nombre d’émissions acoustiques émises des zones à haute atténuation est très petit par rapport au nombre total. Ceci sera montré dans le chapitre suivant.

Machine à traction : évaluation de x dans le bois

On calcule x pour la machine à traction en utilisant la même procédure qu’auparavant. Dans cette géométrie, les distances di qui apparaissent en eq. (3.19) sont :

(.21) 

Le système de repère utilisé est celui de la figure 23. En développant les calculs dans le cas du bois, ka=0.073 cm-1, on obtient la distribution de x qui est montrée dans la figure 23.

figure 23: Distribution de x dans la machine à traction

Les événements provenant de la côte de l’échantillon la plus éloignée des microphones sont très atténués (‘50%). Dans le chapitre suivant on montrera que, à cause de l’entaille initiale, la plupart des événements sont émis de la partie centrale de l’échantillon. Dans cette zone l’atténuation est inférieure à 10% et elle peut donc être négligée.

      1. Les matériaux utilisés

Les matériaux utilisés dans nos expériences sont les suivants :

Tous ces matériaux ont été utilisés dans la chambre à haute pression. Dans la machine à traction on a utilisé seulement les trois premiers.

BA

Ceci est un matériau très hétérogène, il est constitué de petites miettes de bois collées entre elles. La longueur de ces morceaux de bois est comprise entre 1 mm et 1 cm, leur largeur est de quelques mm. Le module de Young de ce matériau est de E=1.8 108 N/m2, le coefficient de Poisson s =0.45 et le coefficient d’atténuation ka=7.3 m-1. L’épaisseur des échantillons en BA est de 4 mm. La vitesse des ondes longitudinales vl est de 1900 m/s, celle des ondes tranverses vt est de 1100 m/s.

PMMA

Les échantillons en Plexiglas ont une épaisseur de 4 mm. Les vitesses des ondes longitudinales et transversales sont respectivement 2020 m/s et 1010 m/s. Le coefficient de Poisson est 0.33 et le module de Young est 3.2 109 N/m2. Le coefficient ka est égal à 0.033±0.005 cm-1. La densité est de 1.18 103 Kg/m3.

FV1

Ce matériau est constitué par un réseau carré de fibres de bois plastifié avec de la résine. Le réseau n’est pas très régulier, le pas moyen est de 3 mm. Les fibres de bois qui le composent ont une épaisseur d’un millimètre. Des fibres de verre, distribuées aléatoirement, sont aussi présentes dans la résine. Ces fibres sont très fines, diamètre de l’ordre du demi millimètre, et ont une longueur de quelques centimètres. L’épaisseur des échantillons est de 2.5 mm. Le module de Young est de 1010 N/m2 et ka= 0.017±0.005 m-1. La vitesse des ondes longitudinales est de 2200 m/s, celle des ondes transverses de 1100 m/s.

 

Y [N/m2]

vt [m/s]

vl [m/s]

ka [1/cm]

BA

1.8± 108

1100

1900

0.073±0.005

PMMA

3.2 109

1000

2020

0.033±0.005

FV1

1010

1100

2200

0.017±0.005

FV2

2.1 109

1200

2420

0.015±0.005

FV3

1.25 109

1175

2200

0.015±0.005

Tableau -1 Caractéristiques des matériaux utilisés

FV2

Ceci est un matériau composite normalement utilisé dans la construction des bateaux. Chaque plaque est formée d'une couche de fibres de verre durcie avec de la résine. Une couche en formica, d’épaisseur 0.5 mm, recouvre un des deux côtés des échantillons. L’épaisseur totale des plaques est alors 6 mm. Les vitesses des ondes longitudinales et transverses sont, respectivement, 1200 m/s et 2420 m/s. Le module de Young est 2.1 109 N/m2 et n = 0.46. Le coefficient d’atténuation ka vaut 0.015±0.005 cm-1.

FV3

Ces échantillons sont faits par une couche de tissus de fibres de verre durcie avec de la résine. L’épaisseur des échantillons est de 1.6 mm, la densité de 1.19 103 kg/m3. Les ondes longitudinales se propagent avec une vitesse de 2200 m/s. La vitesse de propagation des ondes tranverses est beaucoup plus petite ; 1175 m/s. Le coefficient de Poisson n est 0.43, E est 1.25 109 N/m2 et Ka est égal à 0.015±0.005 cm-1.

    1. Le système d’acquisition


On va maintenant détailler les caractéristiques de chaque élément du système d’acquisition, figure 11.

      1. Appareillages communs aux deux manipulations


Les microphones Mi

Les microphones utilisés, Pinducer VP-1093 Valpey-Fisher, sont de type piézoélectrique. Ils délivrent un courant proportionnel à la pression à laquelle ils sont soumis. La forme des microphones est cylindrique : longueur 3 cm, diamètre de la base 2 mm. La bande de fréquences d’utilisation est très large : 0-2 MHz.

Les filtres et les amplificateurs FA

La boîte électronique FA a quatre entrées et quatre sorties. Chaque canal, relié à un microphone, est formé d’un amplificateur de courant, un amplificateur de tension et deux filtres. Le signal sortant d’un microphone passe d’abord par l'amplificateur de courant. La sortie de l'amplificateur est branchée sur l’entrée d’un filtre passe bande (20 kHz - 2 MHz). La sortie du filtre est connectée à l’entrée de un amplificateur de tension. L’amplificateur, composé d’un amplificateur opérationnel en configuration inverseur, amplifie d’un facteur 20 le signal d’entrée. Le stade successif est formé d’un filtre passe bas dont la fréquence de coupure est 60 kHz. La boite FA a été conçue et construite par notre laboratoire.

L'électronique ED qui mesure l'énergie

L'électronique ED a quatre entrées et trois sorties. Une sortie donne la mesure de l’énergie, les autres deux servent à déclencher l’acquisition des cartes SC et du convertisseur ADC1. Lorsqu’un des quatre signaux en entrée dépasse une certaine valeur l’acquisition démarre. Chaque signal est multiplié par lui-même, puis les carrés des signaux sont sommés. Le résultat est enfin intégré pendant 30 ms. On obtient ainsi l’énergie transportée par les signaux. Au moment où l’acquisition démarre le TR1 fait déclencher les cartes SC. L’acquisition du convertisseur ADC1 est déclenchée 30 ms plus tard, lorsque la mesure de l’énergie est terminée. Ce système a été projeté et construit par notre laboratoire.

Les cartes d’acquisitions SC

Ce sont des cartes d’acquisition GAGE 225. Dans nos expériences la fréquence d’échantillonnage utilisée est de 1 ou 5 MHz pour 2048 points d’acquisition. Comme montré dans la figure 12, l’instant de déclenchement est donnée par ED. Les données sont transférées vers l’ordinateur après chaque acquisition. Le temps nécessaire pour transférer les données vers l’ordinateur est largement inférieur à 30 ms. Les cartes sont donc prêtes a une nouvelle acquisition bien avant que ED ne déclenche une nouvelle acquisition.

Les convertisseurs analogiques digitales ADC1 et ADC2

Le convertisseur ADC2 mesure, en continu, avec une fréquence de 8 points par seconde. Dans le cas de la chambre à haute pression, il enregistre les signaux envoyés par les capteurs de pression DPD et de déplacement DS. Dans le cas de la machine à traction, il enregistre les signaux envoyés par les capteurs de force DPD et de déplacement DS. En revanche, le convertisseur ADC1 acquiert seulement lorsqu’il y a une émission acoustique. Il enregistre l'énergie e mesurée par ED, en plus des paramètres enregistrés par ADC2. Les données enregistrées par les deux convertisseurs sont transférées vers l’ordinateur à la fin de l’expérience.

L’ordinateur

Le processeur de l’ordinateur qui gère le système d’acquisition et qui enregistre toutes les données est un Pentium à 133 MHz. L’horloge mesure le temps auquel les événements se produisent avec une erreur de 1 m s.

      1. Appareillage de la chambre à haute pression


Le capteur différentiel de pression DPD

Le capteur de pression utilisé est un SCX30DN produit par Sensim. Il s’agit d’un capteur différentiel. La tension de sortie est proportionnelle à la différence de pression appliquée, elle est comprise entre -100 mV et 100 mV. La pression maximale mesurable est 4 atm, l’incertitude est de 0.002 atm. Le temps de réponse du capteur est de 100 m s.

Le capteur de déplacement DS

Pour mesurer le déplacement du centre de la plaque, nous avons utilisé un capteur inductif, le 500 HR de PM Instrument. Une barrette de ferrite rentre dans une structure cylindrique dans laquelle sont enroulé deux bobines. L’une des deux est excitée avec une tension sinusoïdale à 3 kHz, l’autre subit l’induction de telle tension. La barrette modifie l’induction mutuelle entre les deux bobines. L’intensité du courant induit dépend donc de la position de la barrette. Ce capteur nous permet de mesurer des déplacements de 2 cm avec une précision de 10m m.

Le filtre F

Il s’agit juste d’un filtre passif passe-bas. La fréquence de coupure est de 10Hz.

La valve électronique EV

La vanne que nous avons utilisée est à contrôle électronique, elle est produite par MKS Instrument, notre modèle est le 248A. Elle peut contrôler des flux au-dessus de 200 cm3/min avec une précision de 1%. Le flux de gaz qui peut traverser la vanne est proportionnel à la tension appliquée sur le connecteur de contrôle.

Le système de rétroaction FBA

Le FBA a deux entrées et une sortie. Une entrée est constituée par une tension dite de référence, généré par RG. L’autre tension d’entrée est celle, filtrée par F, du capteur de pression DPD ou de déplacement DS. La tension de sortie est 10 fois la différence entre les deux tensions en entrées. Cette tension est appliquée au connecteur de contrôle de EV. Pour faire le comparateur et l’amplificateur, on a utilisé des amplificateurs opérationnels à bas bruit et haut gain.

Le générateur de signal de référence RG

Ceci est un générateur de rampe ou de tension continue. Les rampes sont faites avec un circuit RC qui a une constante de temps (variable) très élevée. Avec ce système nous pouvons produire des rampes de pression de pente comprises entre 10-5 et 10-2 atm/s, et des rampes de déplacement de pente comprises entre 10-1 et 1 mm/s.

      1. Appareillage de la machine à traction

Le capteur de force

Le capteur de force, est un Hydrotonics-TC. La sensibilité du capteur est de 10 V pour 2000 N.

Le capteur de déplacement et son pilote

Le moteur pas-à-pas, Mt dans la figure 17, qui permet de déplacer les mâchoires est un Micro Contrôle UE42. Il est piloté par une électronique Micro Contrôle ITL09 (Mc dans la figure 17). L’ensemble permet d’avoir une résolution inférieure au micron sur les déplacements imposés. La valeur du déplacement appliqué à l’échantillon est mesuré par Mc.


 
 

  1. Les résultats expérimentaux

Le but de nos mesures est d’essayer de répondre aux questions suivantes :

  1. La fracture est-elle un phénomène critique ‘ Dans un tel cas, quels sont les paramètres de contrôle, et les valeurs des exposants critiques ‘
  2. Est-il possible de connaître l’état d’endommagement de l’échantillon à partir des émissions acoustiques qui précédent la fracture finale ‘
  3. Quel rôle jouent le temps et le désordre dans le processus de la fracture ‘ Sont-ils corrélés ‘

Pour ce faire, nous avons fait principalement trois types d’expériences : à charge constante, à charge linéaire dans le temps et à charge périodique.

Toutes les mesures, si rien n’est spécifié, sont relatives à des expériences faites sur la machine à haute pression.

    1. Observations préliminaires


Avant de commencer la discussion concernant les trois questions du paragraphe précédent, il est important d’analyser les réponses du système dans les différentes conditions expérimentales. On verra que l’échantillon peut se casser d’une manière fragile ou ductile, ou peut ne pas se casser du tout, selon que l’on applique la pression, la déformation, ou le flux d’air comprimé. Le comportement du système dépend donc de la charge que l’on impose.

      1. Rupture à charge linéaire dans le temps


Si l’on impose une charge linéaire dans le temps, loin du point de rupture, la courbe de charge suit bien l’allure prédite par les équations présentées dans le chapitre précédent (eq. 3.13), et ceci indépendamment du paramètre (P ou w) que l’on impose. Il s’agit d’un polynôme à termes impairs du troisième degré :

(.1) 

P est la pression, w le déplacement du centre de la plaque, et c1 et c3 sont deux constantes. Comme prévu par la théorie, (par. 3.1d), le rapport entre c3 et c1 dépend de l'épaisseur au carré de la plaque. En effet, dans les échantillons en BA, d'épaisseur eBA=4 mm (figure 24a), c1 est très grand par rapport à c3 et la courbe de charge est presque linéaire : . En revanche, pour les échantillons en FV3 (figure 24b), qui ont une épaisseur beaucoup plus petite (eFV3=1.6mm), la non-linéarité de la courbe de charge est plus remarquable : . On vérifie donc bien que : .

figure 24: Courbe de charge pour une rampe de pression imposée. a) Echantillon en BA. b) Echantillon en FV3.

figure 25: Déformation imposée : courbe de charge pour un échantillon en BA.

En revanche, près du point de rupture, l’allure de la courbe de charge dépend du paramètre que l’on impose à l’échantillon. Dans le cas à pression imposée, la courbe de charge maintient son allure polynomiale jusqu'à la rupture : l’échantillon se casse de manière fragile. Par contre, si on agit à w ou à flux d’air comprimé imposé, l’échantillon se casse de manière ductile, c’est-à-dire que la courbe de charge présente une allure plastique peu avant la rupture, figure 25.

      1. Rupture à charge constante

Dans les expériences à charge constante, le mode de chargement est déterminant.

figure 26: P (ligne continue) et w (ligne pointillée) en fonction du temps. a) Pression constante imposée. b) Déformation constante imposée.

Si l’on impose une pression constante, on voit que l’échantillon se déforme de plus en plus et, au bout d’une certaine période de temps, se casse

figure 26

a). En revanche, si l’on impose une déformation constante, on constate que la pression décroît : la plaque ne se casse donc pas, (figure 26b). Dans les figure 26 on montre la pression P (ligne continue) et le déplacement du centre de la plaque w (ligne pointillée) en fonction du temps t pour un échantillon en BA.

Evolution à charge constante : microfractures ou effets viscoélastiques ‘

On se demande alors si l’évolution du système soumis à une charge constante est due aux effets de viscoélasticité ou à une succession de microfractures. Les mesures nous montrent que :

  1. Dans le bois et les différentes fibres de verre, toutes variations de P ou de w sont accompagnées par des émissions acoustiques (AE).
  2. Lorsque l’on impose une pression constante à un échantillon en PMMA, matériau très homogène et très viscoélastique, le déplacement du centre de la plaque, après une courte période de stabilisation, reste constant. L’échantillon ne se casse pas. Aucune émission acoustique n’est enregistrée au cours de ces expériences.

A la lumière de ces observations, nous pouvons affirmer que, pour un échantillon soumis à une charge constante, les variations de P et w sont dues à l’apparition de microfractures. Les effets de viscoélasticité se limitent à une courte période transitoire, après laquelle ils deviennent négligeables. Les raisons pour lesquelles on a des émissions acoustiques à charge constante et la relation entre le temps de rupture de l’échantillon et la charge appliquée seront étudiées dans les prochains paragraphes.

Pourquoi l’échantillon se casse-t-il seulement à P imposée  ‘

On peut facilement comprendre pourquoi dans un cas (pression imposée) les précurseurs de la fracture poussent le système vers la rupture, et dans l’autre (déformation ou flux d’air imposé), ils le poussent vers un état d’équilibre.

Imaginons que l'on impose une pression constante à une plaque, que l’on schématise par un réseau de liens élastiques. Lorsqu’un ou plusieurs liens de l’échantillon se cassent, i.e. quand une microfracture apparaît, la contrainte à laquelle ils étaient soumis va entièrement se redistribuer sur les autres liens de l’échantillon. La déformation des liens, qui est proportionnelle à la contrainte, augmente donc chaque fois qu’il y a une nouvelle microfracture, i.e. une émission acoustique. On arrive aux mêmes conclusions en faisant un raisonnement non local : une microfracture affaiblit le matériau. Or, si après l’apparition d’une nouvelle microfracture l’échantillon supporte la même pression qu’auparavant, sa déformation augmente. Le système va donc vers un état instable, la rupture.

Inversement, imaginons que l’on impose une déformation constante à la plaque. Lorsque des liens se cassent dans l’échantillon, celui-ci devient de moins en moins résistant à la contrainte imposée (il s’affaiblit). Pour garder la même déformation (celle imposée), la pression à laquelle est soumis l’échantillon diminue après chaque émission acoustique. Le système évolue donc vers un état stable.

    1. Fracture et criticité
      1. Comportement critique d’un matériau hétérogène sous contrainte

Nous allons montrer qu'un matériau hétérogène chargé avec une pression constante a un comportement critique. Un système qui affiche un tel comportement est caractérisé par des distributions en lois d’échelle de certains paramètres qui le caractérisent. Les paramètres auxquels nous avons accès avec nos mesures sont l’énergie acoustique émise e et le temps dt qui s’écoule entre deux émissions acoustiques consécutives. Les histogrammes de ces deux variables suivent des lois de puissance. Les valeurs et les propriétés de ces lois d’échelle dépendent de la charge que l’on impose à l’échantillon et du matériau qui le compose. Regardons-les en détail, cas par cas.

Tous les histogrammes que l'on montrera sont obtenus en considérant les événements d'un seul échantillon. On ne peut pas cumuler les événements de plusieurs échantillons sur le même histogramme car les coefficients de couplage entre les microphones et les échantillons changent d'expérience en expérience. Par conséquent, un même événement est détecté avec une énergie toujours différente. De plus, même la valeur de l'énergie minimale enregistrée change d'expérience en expérience (par. 3.1b). Les valeurs des exposants et leurs incertitudes sont donc calculées en moyennant les résultats obtenus sur plusieurs échantillons.

Charge linéaire dans le temps (rampe)

Propriétés génerales

Dans la figure 27 on montre une distribution typique des énergies e dans le cas d'un échantillon en BA. N(e ) représente le nombre d'émissions acoustiques d'énergies e qui ont été enregistrées. Cette distribution suit une loi de puissance sur deux décades. Si l'on appelle l'exposant critique b , on a : N(e )=e -b . Pour la distribution de la figure 27, b =1.5. La coupure inférieure de la distribution e min est déterminée par le niveau de l'énergie de seuil, c'est-à-dire la valeur de l'énergie minimale que le système d'acquisition est capable de détecter. Varier l'énergie de seuil correspond simplement à ajouter ou à enlever les événements petits, le reste de la distribution ne change pas. Une distribution typique des intervalles de temps dt, est représentée dans la

figure 28

. N(dt) représente le nombre d'intervalles de temps de longueur dt qui ont été enregistrés.

figure 27 : Distribution typique des énergies e pour un échantillon en BA.

Cette distribution suit aussi une loi de puissance. Si l'on appelle a l'exposant critique, on a alors N(dt)=dt-a . Pour la distribution de la figure 28, relative à un échantillon en FV3, a =1.62. Dans ce cas la coupure inférieure de la distribution, dtmin, est indépendante de l'énergie de seuil, elle est déterminée uniquement par le système d'acquisition. On ne peut pas distinguer deux événements qui se produisent à moins de 32 ms l'un de l'autre, en conséquence dtmin=32 ms. Une propriété remarquable de la distribution des dt est que lorsqu'on varie la valeur de l'énergie de seuil, l'allure de la distribution ne change pas et a reste constant.

Les erreurs de mesure sur a et b sont calculées statistiquement, c'est-à-dire en moyennant sur plusieurs mesures du même type. On trouve que, pour a comme pour b , indépendamment du matériau et de la procédure utilisés, l'erreur de mesure est de l'ordre de 5%.

figure 28 : Distribution typique des intervalles de temps d t pour un échantillon en FV3.

Nous avons étudié les distributions de e et de dt en fonction des paramètres suivants :

  1. Le mode de chargement (pression, déformation, ou flux d'air comprimé).
  2. Le temps, i.e. l'état d'endommagement de l'échantillon.
  3. La vitesse de la rampe.
  4. Les matériaux utilisés.

a) Dépendance de a et b en fonction du mode de chargement

Etudions d'abord la dépendance des exposants critiques a et b par rapport au mode de chargement. Sur la figure 29 on montre trois distributions de e relatives à des échantillons en FV2. Les cercles représentent la distribution obtenue à pression imposée, les losanges celle à déformation imposée et les étoiles celle à flux d'air comprimé imposé. L'exposant critique de la première distribution est 2.15, celui de la deuxième est 2.11 et celui de la troisième est 2.14. Aux erreurs de mesure près (5%), b ne dépend donc pas du mode de charge que l'on impose à l'échantillon.

figure 29 : Distribution des e pour différents modes de charge pour des échantillons en FV2. Les cercles (b =2.15) représentent la distribution obtenue à pression imposée, les losanges (b =2.11) celle à déformation imposée et les étoiles (b *=2.14) celle à flux d'air comprimé imposé.

D'une manière analogue, on peut montrer que a a la même propriété : dans la figure 30 on montre trois distributions de dt pour un échantillon en FV2. Comme pour la figure 29, les cercles représentent la distribution à pression imposée, les losanges celle à déformation imposée et les étoiles celle à flux d'air comprimé imposé. Les exposants sont : 1.54, pour la première distribution, 1.46 pour la deuxième, et 1.57 pour la troisième. Même dans ce cas, aux erreurs de mesure près (5%), l'allure de la distribution ne dépend donc pas du mode de charge que l'on impose à l'échantillon, a est constant.

Tous les autres matériaux que l'on a utilisés affichent le même type de comportement. Les exposants a et b sont donc indépendants du mode de chargement.

figure 30 : Distribution des d t pour différents modes de charge pour des échantillons en FV2. Les cercles (a =1.54) représentent la distribution obtenue à pression imposée, les losanges (a =1.46) celle à déformation imposée et les étoiles (a *=1.57) celle à flux d'air comprimé imposé.

b) Dépendance de a et b en fonction du temps

Les distributions montrées jusqu'ici ont été faites en considérant tous les événements enregistrés au cours de l'expérience. On pourrait alors se demander s’il y a une variation des exposants a et b au cours de la mesure. Nous montrerons ici les résultats obtenus sur échantillon en FV1. Dans les échantillons en BA et dans les autres types de fibre de verres nous retrouvons, qualitativement, les mêmes effets.

Dans la figure 31 sont présentés trois histogrammes de e et dans la figure 32 trois histogrammes de dt.

figure 31 : Distribution des l'énergie à différents stades de l'évolution vers la rupture pour un échantillon en FV1. Les exposants sont : b =2.01, b =1.77 et b *=1.87

figure 32 : Distribution de d t à différents stades de l'évolution vers la rupture. Les exposants sont : a =2.23, a =2.05 et a *=2.06.

Les losanges représentent la distribution des événements apparus dans le premier tiers de l'expérience, les cercles la distribution des événements émis dans le deuxième tiers et les étoiles la distribution des événements enregistrés dans le dernier tiers. Les exposants des distributions montrées sont: 2.01, 1.77 et 1.87 pour les distributions des énergies (figure 31) et : 2.23, 2.05 et 2.06 pour les distributions des dt, figure 32. Dans les deux cas, aux erreurs de mesure près (5%), il n'y a aucune variation. Les allures des distributions ne changent donc pas, bien que les événements émis lorsque l'échantillon est proche de la rupture soient (en moyenne) plus énergétiques et plus fréquents que ceux émis précédemment.

L'état d'endommagement de l'échantillon n'intervient donc pas sur la distribution énergétique et temporelle des émissions acoustiques.

c) Dépendance de a et b en fonction de la vitesse de la rampe

Regardons maintenant la dépendance de a et b par rapport à la vitesse de la charge (linéaire) imposée. Nous avons fait des mesures à différentes vitesses de charge, mais en restant dans le cas quasi-statique, c'est-à-dire dans le cas où les variations de charge sont plus lentes que la propagation élastique dans le matériau. Nous présentons ici seulement les résultats relatifs aux échantillons en FV3, les mesures sur les échantillons en fibre de verre et en BA étant similaires. Dans la figure 33 sont montrées quatre distributions de e et dans la figure 34 quatre distributions de dt. Les mesures sont relatives à quatre échantillons cassés avec quatre rampes de pression de vitesse différentes. Les vitesses utilisées sont : 10-4 atm/s (cercles), 2’10-4 atm/s (losanges), 10-3 atm/s (points), 2’10-3 atm/s (étoiles). Les exposants critiques des quatre distributions de e (b =1.38, b =1.43, b =1.43, b *=1.48) sont, aux incertitudes de mesure près (5%), égaux. Même chose pour les exposants critiques des 4 distributions des dt (a =1.69, a =1.63, a =1.65, a *=1.70).

figure 33 : Echantillons en FV3 : distribution de e pour des rampes de pression de différentes vitesses. Les vitesses utilisées sont : 10-4 atm/s (cercles, b =1.38), 2’10-4 atm/s (losanges, b =1.43), 10-3 atm/s (points, b =1.43) et 2’10-3 atm/s (étoilesb *=1.48).

figure 34: Echantillons en FV3 : distribution des d t pour des rampes de pression de différentes vitesses. Les vitesses utilisées sont : 10-4 atm/s (cercles, a =1.69), 2’10-4 atm/s (losanges, a =1.63), 10-3 atm/s (points, a =1.65) et 2’10-3 atm/s (étoiles a *=1.70).

La distribution de l'énergie des émissions acoustiques ainsi que la distribution de la fréquence des émissions acoustiques ne dépend donc pas de la vitesse de la charge.

d) Dépendance de a et b en fonction du matériau utilisé

Nous avons montré que la valeur de a et b ne dépend ni de la vitesse de la rampe, ni du paramètre qu'on impose au système, ni de l'état d'endommagement de l'échantillon. En revanche, comme on a déjà eu l'occasion de constater dans les mesures précédentes, les exposants critiques dépendent du matériau qu'on utilise. Dans le Tableau 4-1 sont résumées les valeurs de a et b pour les différents matériaux utilisés.

Matériau

a

b

BA

1.9 ± 0.1

1.51 ± 0.07

FV1

2.7 ± 0.15

1.9 ± 0.1

FV2

1.52 ± 0.07

2.12 ± 0.1

FV3

1.65 ± 0.07

1.43 ± 0.06

Tableau -1 : Exposants a et b des matériaux utilisés.

Pression constante

Si on charge le système avec une pression constante, on obtient des résultats un peu différents. Les distributions de e et dt suivent encore des lois de puissance, mais dans ce cas les exposants a et b dépendent de la pression. Dans la figure 31 on montre a et b en fonction de P dans le cas des échantillons en BA. Les deux exposants critiques croissent avec la pression imposée et tendent vers les valeurs trouvées dans les expériences menées à charge linéaire dans le temps.

On a vérifié que, comme dans le cas à charge linéaire, a et b ne dépendent pas de l'état d'endommagement de l'échantillon, mais restent constants tout au long de la mesure. Lorsque les effets non-stationnaires sont prépondérants les exposants a et b dépendent donc de la charge imposée. Nous discuterons et essaierons d'expliquer ce résultat à la fin de ce paragraphe (par. 3.2c).

figure 35 : Les exposants critiques a et b en fonction de la pression (constante) imposée.

figure 36 : Pression imposée en fonction du temps : a) Pression erratique b) Pression cyclique.

Charge cyclique et charge erratique

Nous avons mesuré les exposants a et b dans le cas d'une charge erratique dans le temps et d'une charge cyclique. Dans la figure 36a) est représentée la pression en fonction du temps pour une charge erratique et dans la figure 36b) l'allure de la pression, en fonction du temps, pour une charge cyclique. Dans les deux cas, la valeur des exposants a et b est la même que dans le cas à charge linéaire. Ceci signifie que lorsque les effets temporels (non-stationnaires) mis en évidence dans les expériences à charge constante sont négligeables (par. 3.1b), la valeur des exposants a et b ne dépend pas de l'allure dans le temps de la charge.

Comparaison avec les phénomènes naturels et d'autres expériences

On retrouve l'allure d'une loi de puissance pour la distribution des énergies acoustiques émises par des échantillons soumis à des contraintes dans de nombreuses expériences [, , ]. Dans le Tableau 4-2 sont affichées les valeurs de b trouvées pour certains matériaux qui ont été cassés, avec une charge croissant linéairement dans le temps, par traction ou par compression [, ]. Dans le premier cas, les échantillons étaient rectangulaires, dans le deuxième cylindriques. Les valeurs de b trouvées sont du même ordre de grandeur que celles trouvées dans nos expériences.

Matériau

b

Granite

1.4

Graphite

2

Os (époque actuelle)

0.7

Os (époque préColombienne)

0.8

Pierre ponce

1.65

Résine de pin

1.9

Ti-13Al-22Nb

1.1

Tableau -2: Exposant b pour différents matériaux [, ].

Dans des expériences conduites à contrainte constante (de traction ou de compression), on trouve aussi des lois de puissance pour les distributions des énergies acoustiques [, ]. Dans ces travaux, les auteurs ne se sont pas intéressés à l'étude de la variation de b en fonction de la charge imposée, ils se sont limités à faire remarquer que b varie avec la contrainte imposée à l'échantillon. Ces expériences ont été faites sur des échantillons en granite [] et en cellular glass [].

Dans certaines de ces expériences [, , ] on a aussi mis en évidence une allure en loi de puissance de la distribution des temps écoulés entre deux événements.

Certains phénomènes naturels, tels que les tremblements de terre et les éruptions volcaniques, montrent des distributions d'énergie et de fréquence d'événements en loi de puissance [, , , , , ]. Pour les tremblements de terre, l'allure en loi de puissance de la distribution des temps écoulés entre deux sources successives est connue sous le nom de loi de Omori (OM) par les sismologues. Généralement, l'exposant critique a OM de la loi de OM est compris ente 1 et 1,3. L'allure en loi de puissance de la distribution de l'énergie des tremblements de terre est connue sous le nom de loi de Gutenberg-Richter (GR). L'exposant b GR de la loi de GR varie entre 1.5 et 2 selon le lieu où le tremblement de terre s'est produit. En général b GR ne dépend pas du temps, les distributions d'énergie des tremblements de terre qui se produisent sur une même zone suivant la même loi de puissance, b GR dépend seulement de la composition du sous-sol []. Les propriétés des exposants critiques de a OM et b GR sont très proches des exposants a et b de nos expériences. Ceci nous fait penser que les processus physiques mis en jeu dans les tremblements de terre et dans les expériences de laboratoire (sur les matériaux les plus différents) pourraient être les mêmes.

On trouve des résultats similaires aussi en volcanologie : par exemple, la distribution des énergies des émissions acoustiques associée aux explosions volcaniques du volcan Stromboli [] suit une loi de puissance d'exposant -1.5. De plus, la distribution des temps écoulés entre deux explosions successives suit une loi de puissance d'exposant -1.2.

      1. Le comportement du système près de la rupture

Quand l'échantillon s'approche au point de rupture on observe une grande augmentation de l'énergie e . L'étude de cette loi de croissance peut donner des information sur la nature des phénomènes physiques qui régissent la fracture. En effet, des phénomènes comme la relaxation et la saturation sont caractérisés par des croissances exponentielles de certains paramètres du système.

figure 37 : Energie e et énergie cumulée E en fonction du temps.

En revanche, les phénomènes critiques, comme la percolation ou les transitions de phase, affichent des divergences en loi de puissance de certains paramètres du système. Nous allons donc étudier le comportement de l'énergie e près du point de rupture.

L'énergie cumulée E

On définit E énergie cumulée comme:

(.2) .

t est le temps et t est le moment de la dernière mesure enregistré avant la cassure de l'échantillon. Le temps t est déterminé à partir de la courbe de charge, son incertitude, due à la fenêtre temporelle (32 ms) nécessaire pour mesurer e , est de ±16 ms. E(t) est donc une fonction croissante, limitée entre [0,1]. Physiquement, E(t) représente l'énergie acoustique émise (normalisée à 1) entre le début de l'expérience et le moment de la rupture.

Remarquons que E conserve une éventuelle allure en loi de puissance ou exponentielle de e :

(.3) 

Si l'on regarde l'allure de e et de E au cours du temps, figure 37, on s'aperçoit que E est beaucoup plus régulière (moins bruyante) que e . Il est donc plus convenable d'utiliser l'énergie E, et non e , pour déterminer le comportement en fonction du temps (ou de la pression appliquée) de l'énergie acoustique émise.

Charge linéaire dans le temps

Pression imposée

Supposons que l'on casse un échantillon, d'un des matériaux utilisés, en lui imposant une rampe de pression. Si dans un graphique en échelle logarithmique (figure 38), l'on regarde E en fonction de , on s'aperçoit que, près du point rupture, E suit une droite. Cela signifie que, près du point de fracture,

(.4) ,

g est un exposant que l'on appellera exposant critique de rupture. A cause de la proportionnalité entre P et t, on est dans le cas d'une pression linéaire dans le temps, on a aussi que . Pour calculer g nous avons écrit un programme informatique d'ajustement. Afin d'avoir une meilleure résolution, nous avons considéré aussi t comme paramètre libre. La différence entre le t estimé par le programme d'ajustement et le t déterminé à partir de la courbe de charge, est toujours plus petite que 16 ms. Dans la figure 38, les cercles représentent la E moyenne calculée sur 10 échantillons (en BA pour la figure 38a et en FV2 pour la figure 38b) cassés avec des rampes de pression de vitesse 2’10-4 atm/s, et les lignes continues la courbe g et t ont la valeur calculée par le programme d'ajustement. Nous avons cassé plusieurs échantillons du même matériau avec des rampes de pression de vitesses différentes et, à l'erreur de mesure près, nous n'avons pas constaté de variation de l'exposant g .

figure 38 : L'énergie E en fonction de dans le cas d'une rampe de pression imposée. Les points représentent les mesures expérimentales et les lignes continues la courbe . a) échantillons en BA (g =0.27). b) échantillons en FV2 (g =0.24). Dans les zooms : l'allure près de la rupture.

Matériau

g

BA

0.27±0.05

FV1

0.22±0.05

FV2

0.24±0.05

FV3

0.27±0.05

Tableau -3 : L'exposant g pour les différents matériaux utilisés.

Dans le Tableau 4-3 sont résumées les valeurs de g trouvées pour chacun des matériaux utilisés. Les g sont tous du même ordre de grandeur, l'incertitude de mesure ne nous permettant pas d'établir avec certitude si g dépend ou pas du matériau.

Déformation ou flux d'air comprimé imposé

Si on casse un échantillon en lui imposant un déplacement du centre de la plaque croissant linéairement dans le temps ou un flux d'air comprimé constant, la croissance de e près du point de rupture n'est ni de type exponentielle ni en loi de puissance. En effet, on n'est pas arrivé à trouver une courbe mathématique qui puisse bien interpoler l'allure de e (et de E) en fonction de t, P, ou w, près de la rupture.

figure 39 : Allure de l'énergie cumulée E, en fonction du paramètre réduit, dans le cas à déformation imposée.

Comme exemple, en figure 39 on a tracé, en échelle logarithmique, la E moyenne calculée sur 10 échantillons en BA cassés à déformation imposée. Contrairement au cas de fracture à pression imposée, dans ces conditions expérimentales, le point de rupture n'a pas les caractéristiques d'un point critique.

Charge constante

Ici on doit seulement discuter le cas de la pression imposée, car comme on a déjà vu auparavant [paragraphe 4.1b)] une charge constante dans le temps provoque la fracture de l'échantillon seulement si le paramètre imposé est la pression.

figure 40 : Allure de l'énergie cumulée E, en fonction du paramètre réduit, dans le cas à pression constante pour des échantillons en BA. Les cercles représentent l'énergie cumulée E mesurée et la ligne continue la courbe , avec g =0.27.

Comme dans le cas d'une rampe de pression imposée, E, en fonction de , diverge avec une loi de puissance au voisinage du point de rupture: . Dans la figure 40 les cercles représentent la E mesurée et la ligne continue la courbe , où g et t ont les valeurs calculées par le programme d'ajustement. Les données représentées dans la figure 40, sont relatives à 5 échantillons en BA, E étant la valeur moyenne, cassés avec une pression de 0.5 atm.

Nous avons cassé des échantillons avec des plateaux de différentes pressions (PÎ [0.4, 0.7] atm) et nous n'avons pas relevé de variations appréciables de g . Ces expériences ont été faites en utilisant seulement des échantillons en BA et en FV3. Pour les deux matériaux, g a la même valeur que dans les expériences à rampe de pression imposée.

Charge cyclique dans le temps

Pour vérifier si la criticité du point de rupture dépend de l'histoire de l'échantillon, nous avons fait des mesures en imposant une pression dont l'allure dans le temps est représentée dans la figure 36b). L'énergie cumulée E, au voisinage de la rupture, diverge (figure 41b) en suivant la loi de puissance définie par l'eq.(4.4). Les mesures représentées sur la figure 41b sont relatives à un échantillon en FV3. Ces expériences ont été faites en utilisant des échantillons en BA et en FV3, les exposants g trouvés dans ce cas sont 0.28±0.05 et 0.25±0.05 respectivement. La criticité du point de rupture ne dépend donc pas de l'histoire de l'échantillon.

figure 41 : L'énergie cumulée E (d'un seul échantillon) en fonction de dans le cas a) à pression erratique (g =0.28) et b) cyclique imposée (g =0.25). . Les cercles représentent l'énergie cumulée E mesurée et la ligne continue la courbe .

Charge erratique dans le temps

Nous voulons maintenant vérifier si, en imposant une pression quelconque à l'échantillon, l'allure de E à proximité du point de rupture est la même que dans le cas à rampe de pression imposée et à pression constante imposée. Pour ce faire, nous avons imposé une pression erratique (à un échantillon en BA) dont l'allure dans le temps est montrée dans la figure 36a). Dans la figure 41a) les cercles représentent E et la ligne continue la courbe , où g et t ont les valeurs calculées par le programme d'ajustement (ici, g =0.28). La courbe donne une bonne approximation de l'évolution de E. On peut donc affirmer que si on casse un échantillon à pression imposée, le point de fracture est un point critique dont l'exposant critique est indépendant de l'allure de la pression dans le temps.

Expériences sur la machine à traction

Nous avons fait quelques expériences sur la machine à traction afin de vérifier l'influence de la géométrie sur l'allure de l'énergie acoustique e au voisinage de la rupture. Nous avons cassé des échantillons en BA en leur imposant des charges croissant linéairement dans le temps. On peut résumer les résultats en deux points fondamentaux :

  1. Si on casse un échantillon avec une rampe de déformation, l'allure de e au voisinage du point de rupture ne suit ni une loi de puissance, ni une loi exponentielle. Son allure ne suit pas une courbe mathématique simple.
  2. Si l'échantillon est cassé à force imposée, près du point de rupture, l'énergie acoustique émise, en fonction de t-t, diverge avec une loi de puissance: 

, où g = 0.27±0.05, figure 42.

figure 42 : Machine à traction: allure de l'énergie cumulée E, en fonction du paramètre réduit, dans le cas à force imposée. . Les cercles représentent l'énergie cumulée E mesurée et la ligne continue la courbe , avec g =0.27.

Les expériences conduites sur la machine à traction donnent donc les mêmes résultats, qualitatifs et quantitatifs, que les manipulations faites dans la chambre à haute pression. Ceci nous permet donc d'affirmer que la géométrie du système ne conditionne pas l'allure de l'énergie acoustique émise au voisinage de la cassure.

Comparaison avec les phénomènes naturels et d'autres expériences

Il serait intéressant de voir si juste avant un tremblement de terre l'énergie sismique émise par les secousses précurseurs ne diverge pas avec une loi de puissance du même type que celle de l'eq. (4.4). Si l'on pense aux tremblements de terre comme à des fractures dues à des pressions s'exerçant entre différentes plaques tectoniques, l'espoir d'observer une divergence de l'énergie sismique en fonction du paramètre réduit est alors bien justifié. A ce propos, un papier apparu en 1996 [], montre que " les concentrations ioniques de l'eau (CI) issue de puits profonds situés à proximité de l'épicentre du tremblement Kobe au Japon, le 17 janvier 1995 sont bien reproduites par des modulations log-périodiques autour d'une loi de puissance". Mis à part les fluctuations log-périodiques, qui sont négligeables, l'allure de CI est donc du même type que celle de l'eq. (4.4). Ceci est très loin de prouver que l'énergie sismique diverge avec une loi de puissance, mais c'est quand même confortant de savoir qu'il y a au moins un paramètre du "système Kobe" qui suit une telle loi.

Connaître la loi de divergence de l'énergie sismique juste avant un tremblement de terre aiderait à mieux comprendre les mécanismes physiques qui régissent le phénomène.

En ce qui concerne les expériences de laboratoire, dans un article de 1995 [] on montre que si on casse un réservoir sphérique en le remplissant d'eau, l'énergie acoustique émise e , près de la rupture, est proportionnelle à , où P est la pression et Pc sa valeur au moment de la rupture. Les réservoirs étaient cassés en leur imposant des rampes de pression. Dans l'article, les auteurs affirment que l'exposant g s ne dépend ni de la vitesse de la rampe, ni du matériau utilisé (fibres de carbone, de kevlar ou de titane) et qu'il vaut 1.5±0.2. Si e diverge avec un exposant g s=1.5±0.2, alors l'énergie cumulée E diverge, en fonction de (Pc-P), avec un exposant g sE=0.5±0.2. On remarque donc que dans cette expérience, qui utilise une géométrie complètement différente de la nôtre, l'exposant g trouvé est très proche, dans la limite des erreurs de mesure, du g observé dans nos expériences.

      1. Comparaison des résultats avec les modèles théoriques et discussion

Des mesures présentées jusqu'ici, il faut retenir trois résultats fondamentaux:

  1. Un échantillon soumis à une charge n'est jamais à l'équilibre. Le système évolue vers un point d'équilibre stable : la rupture si l'on impose la pression (ou une charge croissante), l'état à contrainte nulle si l'on impose une déformation constante.
  2. Les distributions des e et des dt suivent toujours des lois de puissance.
  3. Si l'on casse un échantillon à pression imposée, près du point de rupture, 

Le point a) nous dit donc qu'on a affaire à un système hors d'équilibre. Mais les paramètres caractéristiques P et w varient très doucement par rapport à la vitesse de propagation des ondes élastiques dans le matériau, en conséquence, ils sont donc toujours bien définis. On peut donc considérer que le système est presque à l'équilibre.

Le point b) nous révèle qu'un échantillon sous contrainte est un système critique qui n'a pas d'échelles caractéristiques, ni de temps, ni d'énergie. Enfin, le point c) nous dit que, à pression imposée, le point de rupture peut être considéré comme une sorte de point critique dont le paramètre de contrôle est le temps.

Comparons maintenant nos résultats expérimentaux avec les prédictions des modèles théoriques que nous avons présentés dans le deuxième chapitre (Percolation, SOC, Réseau de fusibles) (par 2.5).

Si dans le cas des réseaux de fusibles [, , , , , , , , ] on fait l'analogie entre l'énergie dissipée par la cassure des fusibles e fus et notre énergie e et entre les temps qui s'écoulent entre deux cassures consécutives dtfus et notre dt, alors les prédictions de ces modèles s'accordent très bien avec les mesures expérimentales faites à charge linéaire dans le temps. En effet, les distributions des e fus et des dtfus suivent des lois de puissance. Les exposants de ces lois de puissance, a fus et b fus, sont dit universels car ils sont indépendants des paramètres microscopiques du système []. En particulier, ils ne dépendent ni de la conductivité des fusibles, ni de la valeur ou de la distribution des courants de seuil. Changer la distribution des courants de seuil correspond, dans notre système, à changer le niveau d'hétérogénéité des échantillons, tandis que changer la valeur de ces courants de seuil correspond à changer la résistance à l'effort (la contrainte maximale supportée). La conductivité du réseau est l'analogue du module de Young. Dans nos expériences a et b dépendent du matériau, ils ne sont donc pas universels. Mais, changer de matériau équivaut à changer de module de Young, de niveau de désordre et de résistance à l'effort, mais aussi à changer de type d'interaction microscopique entre les composantes élémentaires du matériau. Or, dans les réseaux de fusibles, l'interaction entre les composantes (les fusibles) ne varie jamais, elle est toujours déterminée par la loi de Kirchhoff, l'universalité des exposants n'a pas été vérifiée en fonction de ce paramètre. Il faudrait donc essayer d'autres lois de redistribution des courants pour vérifier indépendance de a fus et b fus par rapport au matériau utilisé.

Une autre similitude très remarquable entre les réseaux des fusibles et notre système, est que si l'on casse le réseau en lui imposant le courant (analogue à la pression), près du point de rupture [], où g fus=-0.5’(b fus-2). En revanche on ne sait pas comment évolue e dans le cas où le système est guidé par une tension (analogue à la déformation).

L'analogie entre notre système et les réseaux de fusibles marche très bien seulement si l'on néglige les effets temporels, c'est-à-dire si on oublie que notre système est hors d'équilibre. Ceci est possible seulement si les variations de la charge qu'on impose à l'échantillon sont plus rapides que les variations du système dues aux effets temporels. Pour une charge très lente (à la limite constante), les effets non stationnaires sont dominants. Les réseaux de fusibles, qui sont des modèles stationnaires, ne sont donc pas aptes à modéliser notre système dans ces conditions expérimentales.

Sur un petit intervalle de temps, le comportement à charge constante de nos échantillons est très proche de celui d'un système SOC : comportement critique (N(e soc)=e b soc, N(dtsoc)=dta soc) en absence de paramètre de contrôle. Mais un système SOC n'évolue pas vers un point d'équilibre stable comme nos échantillons (point de rupture ou de contrainte nulle). La SOC ne peut donc pas modéliser le comportement global de nos échantillons. Les exposants critiques, calculés avec différentes simulations numériques, sont : a soc~ 1 et b soc~ 2 [].

A pression imposée, la rupture est due à la coalescence des microfractures qui se sont formées auparavant et est caractérisée par un comportement critique du système, (, N(d t)~d -a , N(e )~e -b ) . Le point de cassure a donc toutes les caractéristiques d'un point de percolation. Les exposants a , b et g trouvés expérimentalement sont du même ordre de grandeur que les exposants prévus par la théorie de la percolation (voir tableau 2-1). Cette théorie prévoit que le comportement critique du système décroît en s'éloignant du point critique (les lois de puissances des distributions de e et d t sont coupées au fur et à mesure que l'on s'éloigne du point critique, par. 2.5a). Ceci n'est manifestement pas le cas dans notre système : nos distributions, N(e ) et N(dt), restent constantes pendant toute l'évolution du système vers la fracture finale. En conséquence, le modèle de la percolation peut modéliser le comportement de notre système seulement au voisinage du point de rupture. Une des raisons pourrait être que les modèles de percolation sont caractérisés par des interactions à courte portée, tandis que dans un solide l'interaction entre les défauts est à longue portée (décroissance en lois de puissance, par. 2.2).

Aucun des trois modèles présentés ici ne peut donc modéliser entièrement le comportement d'un matériau hétérogène soumis à une charge : le point de rupture peut être considéré comme un point de percolation, mais les prédictions de la théorie de la percolation sont valables seulement près du point de rupture et si l'on travaille à pression imposée. La SOC, au contraire, modélise bien le comportement du système loin du point de rupture. Enfin, les réseaux de fusibles donnent de bons résultats seulement si l'on considère des charges suffisamment rapide dans le temps. Pour avoir une modélisation plus satisfaisante, c'est-à-dire qui marche dans toutes les conditions expérimentales, on peut, à notre avis, choisir entre deux possibilités. La première, consiste à modifier, en les rendant stochastiques, les réseaux de fusibles. On verra dans le prochain chapitre que cette modification a beaucoup de chances de réussir. La deuxième possibilité est de faire un modèle hybride SOC-percolation.

Essayons maintenant de comprendre pourquoi parfois a et b sont indépendants de la charge (charge à croissance constante) et parfois non (charge constante). Imaginons que l'échantillon soit formé par un réseau de liens qui se comportent comme des ressorts élastiques tant que la contrainte qui leur est imposée reste inférieure à une valeur critique cc. Si pour un lien la contrainte critique est dépassée, le lien se casse. Si l'on impose à l'échantillon des charges croissantes, il est clair que la séquence des ruptures, et en conséquence a et b , ne dépend pas de la charge mais de la distribution des cc.

Ce mécanisme seul ne peut pas expliquer la rupture de l'échantillon à pression constante. Dans ce cas, la rupture de la plupart des liens est due à un processus d'activation (voir paragraphe 4.4). La probabilité de rupture des liens est alors une fonction fortement non-linéaire de la contrainte imposée : a et b dépendent donc de la charge. La fraction de liens cassés par dépassement du seuil cc de la contrainte locale (sans l'aide des fluctuations) croît avec la pression imposée, il est donc normal que pour des pressions de plus en plus grandes, a et b tendent vers les valeurs trouvées à charge croissante.

    1. Emissions acoustiques et état du système


L'étude de l'état d'endommagement d'une structure est très importante en ce qui concerne la conception et la manutention. Actuellement, les méthodes les plus utilisées consistent à envoyer un signal (sonore, ultrasonore, lumineux, rayon x ‘) et à en étudier la propagation. Ces méthodes demandent des calculs parfois très compliqués et qui, de plus, dépendent fortement de la géométrie.

Ici, nous essaierons de voir s'il est possible d'évaluer l'état d'endommagement d'un matériau hétérogène soumis à une charge à partir des signaux acoustiques que lui-même émet (i.e. les microfractures précurseurs). L'idée la plus simple qui vient à l'esprit est d'utiliser l'énergie e et les temps écoulés entre deux événements consécutifs. Or nous avons déjà vu (par. 4.2b) que l'énergie e des émissions acoustiques diverge juste avant la cassure. Cette divergence est trop proche du point de rupture et trop soudaine pour pouvoir être utilisée comme indicateur de l'état d'endommagement du système. De plus, la distribution des temps écoulés entre deux événements consécutifs (dt) suit une loi de puissance qui ne dépend pas de l'état d'endommagement de l'échantillon (par. 4.2a). Son étude ne permet donc pas non plus de remonter à ce dernier.

Nous allons voir par la suite si l'étude de la vitesse de propagation du son, de la distribution des points d'émissions et de la forme des émissions acoustiques permet quant à elle d'évaluer l'état d'endommagement des échantillons.

      1. Vitesse du son et état d'endommagement


L'endommagement d'un matériau hétérogène est lié au nombre de microfractures présentes. A cause de la diffraction, la vitesse de propagation des ondes élastiques qui ont une longueur d'onde comparable à la taille des microfractures, dépend fortement du nombre de microfractures. Cette vitesse est donc liée à l'état d'endommagement du matériau. Dans nos expériences, les émissions acoustiques de longueur d'onde comparable avec la taille des microfractures (~mm) ne sont pas mesurables car elles sont presque totalement atténuées par le milieu. La longueur d'onde des émissions acoustiques que l'on mesure est beaucoup plus grande que la taille des microfractures, on peut donc exclure à priori la présence d'effets de diffraction.

Certaines simulations numériques concernant des réseaux 2D de ressorts [], affirment que la diffraction n'est pas la seule interaction entre les microfractures et les ondes élastiques. Elles montrent en effet que la présence de microfractures (trous dans le réseau) modifie la vitesse de propagation des ondes élastiques de n'importe quelle longueur d'onde.

Les résultats expérimentaux sont en désaccord avec ces prédictions : la vitesse (dans la bande passante du système d'acquisition) est constante en fonction de l'état d'endommagement. On a en effet mesuré la vitesse des ondes (longitudinales et transverses) dans un échantillon pendant qu'il évoluait vers la rupture et, à l'erreur de mesure près, la vitesse ne change pas. La technique utilisée pour mesurer la vitesse des ondes est celle expliquée dans le chapitre précédent (par. 3.3b). Nous pensons que l'incohérence avec les résultats des simulations numériques est due à la différence de dimensionalité.

La vitesse de propagation des émissions acoustiques ne peut donc pas être utilisée comme indicateur de l'état d'endommagement des échantillons.

      1. Points d'émission et état d'endommagement


Connaissant la différence des temps d'arrivée d'une émission acoustique dans chacun des quatre microphones, on peut, avec une méthode de triangulation, remonter à son point d'émission. Nous supposons les échantillons bidimensionnels. Trois microphones seraient suffisants, nous utilisons quatre microphones pour avoir une meilleure résolution.

Détermination des temps d'arrivée

La difficulté et la source d'erreur la plus grande pour la détermination des points d'émission viennent de l'estimation des temps d'arrivée. Certaines fois il est impossible de l'évaluer. Dans la figure 43 nous avons trois signaux captés par un microphone au cours d'une expérience. La fréquence d'échantillonnage est de 1 MHz. La détermination du temps d'arrivée du signal représenté dans la figure 43a est assez facile, l'indétermination est de l'ordre de quelques m s. Le signal dans la figure 43b) est beaucoup plus faible que le premier, le bruit cache le début du signal, l'indétermination sur l'évaluation du temps d'arrivée (~80 m s) est donc plus grand que dans le premier cas. Sur la figure 43c), on voit deux signaux. Le premier signal est arrivé avant le déclenchement du système d'acquisition (le signal est arrivé au microphone moins de 32 ms après l'émission précédente). Le début du deuxième signal se superpose au premier. On ne peut donc pas déterminer le temps d'arrivée ni du premier, ni du deuxième signal. Pour l'évaluation des temps d'arrivée nous avons utilisé deux méthodes indépendantes. La première se base sur la variation de l'énergie transportée par le signal. L'énergie du bruit étant constante, le début de l'émission acoustique coïncide alors avec une variation de l'énergie transportée. La deuxième méthode se base sur l'étude de la distribution temps-fréquence des signaux []. La distribution temps-fréquence d'un signal permet de savoir les fréquences, et leur intensité, qui sont présentes dans le signal à chaque instant t. Or, le bruit ayant toujours la même distribution temps-fréquence, l'instant d'arrivée de l'émission acoustique est associé à une variation de la distribution temps-fréquence du signal acquis. Ces deux méthodes donnent des résultats équivalents.

figure 43 : Trois émissions acoustiques captées par les microphones. Pour les signaux en a) et b) la détermination du temps d'arrivée est possible (avec des différents erreurs de mesure), pour le signal en b) elle est impossible.

Localisation des points d'émissions

Une fois les temps d'arrivée déterminés, on peut calculer les points d'émissions des microfractures. Les échantillons étant considérés comme bidimensionnels, un point d'émission est caractérisé par un couple de coordonnées Po=(xo, yo), et chaque microphone k (k=1,2,3,4) par un couple Mk=(xk, yk). Le système de repère utilisé est celui représenté en figure 22. Si l'on appelle vl la vitesse des signaux, D thk la différence des temps d'arrivée du signal aux microphones h et k, et si l'on définit:

(.5) ,

alors, pour trouver la meilleure estimation pour Po, il faut minimiser la fonction :

(.6) .

Les facteurs ek sont des quantités qui tiennent compte du rapport signal-bruit et de l'incertitude sur les temps d'arrivée aux microphones. Pour calculer le minimum de la fonction V(Po), nous avons écrit un programme informatique qui utilise le simplex de Melder-Meadox. L'erreur de mesure (dxo ,dyo) sur les coordonnées du point d'émission dépend fortement de l'incertitude sur les temps d'arrivée. Nous considérons qu'une émission acoustique est localisée seulement si . Avec nos programmes, nous arrivons à localiser environ 60 % des émissions acoustiques enregistrées au cours d'une expérience.

Sur la figure 44a, on montre la photo d'un échantillon en BA cassé dans une de nos expériences et dans la figure 44b les points d'émissions des événements que l'on a réussi à localiser. La taille des cercles représente l'erreur de mesure. En superposant les deux figures, voir figure 44c, on voit que l'échantillon s'est cassé là où le plus de microfractures sont apparues.

figure 44 : Localisation des points d'émissions des microfractures. a) Photo d'un échantillon (cassé) en BA. b) Localisation des microfractures c) Superposition des figures précédentes.

Cela confirme en même temps la validité de notre processus de localisation et l'hypothèse que les émissions acoustiques sont associées à un processus d'endommagement du matériau. De plus, cela montre que la rupture est due à la coalescence de plusieurs microfractures et non pas à la croissance d'une (ou plusieurs) fissure.

La différence entre les temps d'arrivée aux quatre microphones est comprise entre 0 (pour un signal émis du centre de la plaque) et 10 ms (pour un signal émis juste à coté d'un microphone).

Entropie

On veut maintenant voir s’il est possible de lier la distribution spatiale des microfractures à l’état d’endommagement de l’échantillon. Pour ce faire, nous avons défini une fonction entropie S(t) qui permet d’évaluer le niveau de concentration des microfractures apparues dans l’intervalle de temps [ t, t+D t]. S(t) est définie de la manière suivante : on fait, idéalement, un grillage K´ K de la surface de l’échantillon (considéré ici comme bidimensionnel). La taille des carrés, (22/K)2 cm2, doit être plus grande que l’incertitude sur la localisation des microfractures, et en même temps assez petite pour avoir une bonne résolution : nous avons considéré des KÎ [8,14]. La valeur de S(t) dépend de la taille du grillage, on verra dans la suite de quelle façon.

On compte ensuite le nombre ni(t) de microfractures apparues dans le carré i dans l’intervalle de temps que l’on considère et l’on définit la probabilité d’occupation pi(t) du carré i dans ce même intervalle de temps : . Où N(t) représente le nombre total de microfractures apparues dans l’intervalle de temps [ t, t+D t].

On définit ensuite l’entropie s(t) comme :

(.7) 

Afin de pouvoir comparer l’entropie entre plusieurs intervalles de temps, dont chacun a un nombre total de microfractures apparues N(t) différents, nous normalisons s(t) à l’entropie aléatoire so(t). so(t) représente la valeur de s qu’on aurait si les N(t) microfractures apparues dans l’intervalle de temps considéré étaient distribuées aléatoirement sur l’échantillon. On a donc :

(.8) .

On remarque que, si les microfractures sont distribuées aléatoirement sur l’échantillon, S(t)=1 ; en revanche, si toutes les microfractures sont concentrées sur un même point, S(t)=0. Les valeurs des extrêmes ne dépendent donc pas du nombre de carrés K2 du grillage. En revanche, en dehors des extrêmes, S(t)~log(K2). Cependant, avec les valeurs de K que nous avons utilisées, nous avons trouvé que l’allure de la courbe restait sensiblement la même. De plus, la dépendance de S(t) en fonction de la taille du grillage pourrait être éliminée en utilisant d’autres définitions pour l’entropie ; nous avons ici utilisé la définition de Shannon, eq.(4.8), car c’est la plus simple et la plus intuitive. Nous avons mené la même étude en utilisant une définition de l’entropie qui utilise les concepts de K-Minimum Spanning Tree (K-MST) : cette définition permet de s’affranchir de la taille du grillage, mais est plus compliquée à mettre en ‘uvre. Les résultats obtenus sur nos mesures étant équivalents, nous n’en parlerons pas.

Résultats et discussion

Pour l’analyse des nos données expérimentales, nous avons divisé le temps de l’expérience en 8 ou 10 intervalles. Le nombre d’intervalles est limité par le nombre de microfractures apparues : pour que les résultats soient statistiquement fiables, il faut que dans chaque intervalle il y ait au moins quelques dizaines de microfractures. Nous avons observé que S(t) ne dépend ni de l’allure de la charge dans le temps (rampe, constante, erratique) ni du mode de chargement (pression ou déformation imposée). On a donc représenté ici, figure 45, un seul de ces cas : sur cette figure on a tracé l’entropie S(t) moyenne en fonction du temps, normalisé à t , pour dix échantillons en BA qui ont été cassés avec des charges à croissance constante. L’entropie est presque constante, elle décroît légèrement au fur et à mesure que l’échantillon s’endommage, mais la décroissance est trop faible (par rapport aux incertitudes statistiques de mesure) pour relier d’une manière précise S(t) à l’état d’endommagement de la plaque. La distribution spatiale des microfractures n’est donc pas liée à l’état d’endommagement de l’échantillon ; toutefois, son étude est utile pour comprendre le mécanisme de rupture.

figure 45 : Entropie S(t) en fonction de t/t . La concentration des microfractures reste pratiquement constante.

L’entropie étant toujours différente de 1, la distribution des microfractures n’est donc jamais uniforme : elles sont, dès le début, concentrées sur certaines zones. Cela signifie que l’échantillon a des zones de faiblesse intrinsèques. L’allure quasi constante de S(t) et l’observation directe des points d’émissions, figure 45, nous montrent que les microfractures apparaissent toujours dans ces mêmes zones, qui s’endommagent donc de plus en plus. Le mécanisme qui provoque la rupture de l’échantillon est donc la coalescence entre différentes zones endommagées, et non la croissance d’une ou plusieurs fissures comme dans certains matériaux.

      1. Distribution temps-fréquence et état d'endommagement


Vérifions maintenant si la structure intime des émissions acoustique varie en fonction de l'état d'endommagement du matériau. On s'intéresse pour cela à leurs distributions temps-fréquence.

Définition de la distribution temps-fréquence

Comme nous l'avons déjà dit, la distribution temps-fréquence d'un signal permet de connaître, à chaque instant t, les fréquences présentes et leurs énergies [, ]. La construction mathématique de telles distributions étant assez compliquée, nous introduirons ici les concepts fondamentaux en les appliquant, pour mieux les comprendre, à un exemple simple : calculons par exemple la distribution temps-fréquence du signal s(t) représenté sur la figure 46a. Ce signal est la somme de deux sinus de fréquences w 1 et w 2 enveloppés chacun par une fenêtre rectangulaire (Rect) de largeur unitaire décalée dans le temps et de support disjoint : , figure 46a. On définit maintenant la distribution de Wigner-Ville W(t,w ) :

(.9) ,

sa représente le signal analytique de s(t). Ws(t,w ) représente l'énergie de la composante de fréquence instantanée w à l'instant t. Sur la figure 46b, est représenté la distribution de Wigner-Ville du signal s(t).

figure 46 : Distribution de Wigner-Ville (b) et distribution temps-fréquence BRID (c) du signal en (a).

Les deux nuages noirs représentent l'énergie de A(w 1) et celle de B(w 2), les lignes noires en oblique représentent des interférences entre les deux signaux. Ces interférences n'ont pas de sens physique (A(w 1) et B(w 2) ne coexistent jamais), elles sont purement mathématiques : afin de les éliminer on effectue une transformée de Fourier bidimensionnelle de Ws(t,w ), on filtre le résultat avec un noyau de convolution binomial p (t,w ), et on fait ensuite une transformée inverse de Fourier. Mathématiquement:

(.10) .

Le choix du noyau de convolution p (t,w ) utilisé détermine certaines propriétés de la distribution Cs(t,w ), qui d'ailleurs prend son nom. Nous avons utilisé un filtre BRID (Binomial Reduced Interference Distribution) [] : Cs(t,w ) est donc la distribution temps-fréquence BRID, figure 46c).

Résultats et discussion

Nous avons calculé la distribution temps-fréquence BRID des émissions acoustiques enregistrées au cours de nos expériences et nous avons trouvé que ces distributions sont toutes très similaires : leur forme ne dépend ni de l'état d'endommagement, ni du type de chargement imposé à l'échantillon.

figure 47 : Distribution temps-fréquence BRID typique d'une émission acoustique. Le signal est composé de deux trains d'ondes qui correspondent respectivement à l'onde longitudinale et à l'onde transverse générées par la création de la microfracture.

Sur la figure 47 est représentée la distribution temps-fréquence BRID typique d'une émission acoustique. La distribution est formée par deux traits verticaux décalés séparés par des figures d'interférence. Les émissions acoustiques sont donc composées de deux trains d'ondes successifs dont le spectre comprend toutes les fréquences de la bande passante du système d'acquisition. Nous pensons que les deux trains d'ondes correspondent respectivement à l'onde longitudinale et l'onde transverse générées par la création de la microfracture. En effet, l'intervalle de temps qui sépare les deux trains d'ondes est proportionnel à la distance entre le point d'émission de la microfracture et le microphone.

L'analyse temps-fréquence des émissions acoustiques ne nous donne donc pas d'informations sur l'état d'endommagement de l'échantillon.

      1. Conclusions

Le but de ce paragraphe était de voir si l'on peut déduire l'état d'endommagement d'un matériau à partir des émissions acoustiques qu'il produit. Les résultats sont négatifs : la vitesse de propagation, la distribution des points d'émission et la distribution temps-fréquence des émissions acoustiques ne peuvent pas être corrélées à l'état d'endommagement de l'échantillon. Peut-être cela est-il dû au fait que les longueurs d'ondes des signaux que l'on mesure (entre 3 et 20 cm) sont beaucoup plus grandes que la taille typique des microfractures qui se forment dans le matériau (~ 1mm). Les émissions acoustiques de longueur d'onde comparable à la taille des microfractures ne sont pas mesurables car elles sont presque totalement atténuées par le milieu ; la bande passante a été choisie en fonction du rapport signal sur bruit, qui nous est imposé par le système lui-même.

Dans le prochain paragraphe, nous verrons en revanche qu'en connaissant à tout moment la pression appliquée à l'échantillon, il est possible de prédire le moment de la rupture avec une bonne précision (£ 20 %).

    1. Le temps et le désordre dans la dynamique vers la fracture
      1. Pression constante


Nous étudierons maintenant la nature des phénomènes physiques qui sont à l'origine de la rupture des échantillons à pression constante ; pour cela nous analyserons ici les mesures faites dans ces conditions de charge.

figure 48 : Temps de vie de l'échantillon t en fonction de P-4 en échelle semi-logarithmique pour un échantillon en BA. La ligne pointillée représente avec t o=50.5 s et Po= 0.63 atm.

La relation entre le temps de vie de l'échantillon t et la pression imposée est fortement non-linéaire. Dans la littérature, plusieurs relations ont été proposées ; celle qu'interpole le mieux nos données est celle proposé par Pomeau (par. 2.5c) :

(.11) .

Sur la figure 48, sont représentées les données relatives à des échantillons en BA (cercles), ainsi que la fonction donnée par l'eq.(4.11) (ligne), avec t o=50.5 s et Po=0.63 atm. Nous avons cassé plusieurs échantillons à la même pression et nous avons constaté que t est bien défini en fonction de la pression appliquée, l'erreur statistique ( représenté par les barres d'erreurs sur la figure 48) étant de l'ordre de 25% ; la dispersion des temps de rupture t suit une loi gaussienne. Les mesures ont été faites à température ambiante (T~300 K). Pour les échantillons en FV3 on trouve t o =44.6 s et Po=2.91 atm.

Selon la théorie de Pomeau :

(.12,

Y est le module de Young, g la tension de surface, k la constante de Boltzmann, T la température et g une constante qui prend en compte les facteurs géométriques. Cette théorie a été conçue pour expliquer la brisure retardée des films de Langmuir : elle se base sur le fait que la rupture du cristal est due à la nucléation par fluctuations thermiques d'une fissure marginale de Griffith-Barenblatt. Or il est assez invraisemblable que dans notre contexte expérimental (échantillons macroscopiques) les fluctuations thermiques puissent avoir l'ampleur nécessaire pour provoquer à elles seules la rupture de la plaque. Afin de le vérifier, nous avons effectué, pour différentes pressions, des mesures à T=380 K et nous n'avons pas observé de variations appréciables de t , qui d'après la théorie de Pomeau, aurait dû changer d'au moins 97 % ( ) pour la pression la plus faible (0.43 atm) et d'au moins 30% pour la pression la plus élevée (0.7 atm). De plus, selon les eq. (4.11) et (4.12), pour qu'une variation de 80 K sur 300 K produise une variation de t inférieure à 25% (l'erreur de mesure), il faudrait que la température soit de l'ordre de ~3000 K. La dépendance en fonction de T de l'eq. (4.12) n'est donc pas vérifiée dans notre contexte expérimental.

Bien que la dépendance en température de t ne soit pas vérifiée, nous pensons que la rupture, comme le prévoit Pomeau, est effectivement due à un processus de nucléation, mais qui dans notre cas est dû non pas (seulement) à des fluctuations thermiques, mais à des fluctuations d'une autre nature. La nucléation d'une micro-fissure représente ici le processus élémentaire, la rupture de l'échantillon étant due à la coalescence un grand nombre de microfractures. En effet, les prédictions de la formule en eq. (4.11) collent très bien avec nos mesures (processus de nucléation), mais la distribution de t à pression constante suit une loi gaussienne et non une loi de Poisson (distribution attendue pour un simple événement aléatoire). L'étude de la localisation des émissions acoustiques (par. 4.3b) nous a montré que la rupture est bien due à la coalescence des microfractures. Il reste donc à déterminer la nature des fluctuations qui sont à l'origine du processus de nucléation. Dans un premier moment, nous avons pensé que les fluctuations étaient de type acoustique, vibrations sonores et ultrasonores présentes dans l'environnement. De simples considérations théoriques excluent a priori cette possibilité : il faudrait en effet des pressions de radiation de l'ordre de 105 Pa. Cela signifie qu'à 1 MHz il faudrait des vibrations d'amplitude de quelques m m et à 1 kHz des vibrations d'amplitude de quelques mm. Nous avons quand même fait des expériences de vérification dans lesquelles les échantillons, soumis à une pression constante, étaient de plus soumis à des vibrations. Les vibrations, générées par des vibreurs mécaniques ou des haut-parleurs, avaient une fréquence comprise entre 1 kHz et 21 kHz et des amplitudes allant jusqu'à quelques mm. Comme prévu, les t trouvés sont les mêmes que dans le cas où aucune vibration n'était imposée aux échantillons. Le bruit acoustique n'est donc pas la source des fluctuations qui causent la rupture des échantillons.

A notre avis, le désordre présent dans le matériau joue un rôle essentiel dans le processus de nucléation. Les défauts produisent de fortes variations locales (fluctuations) des contraintes locales []. Le désordre, et donc la distribution locale des contraintes, change chaque fois qu'une microfracture apparaît : ceci amplifie les effets des fluctuations thermiques. Le bruit kT de l'eq. (4.12) doit donc prendre en compte, en plus de la température thermodynamique, le désordre présent dans le matériau. Dans le prochain chapitre nous présenterons une simple simulation numérique dans laquelle on voit que le désordre intrinsèque du système augmente, à température constante, la probabilité de nucléation d'une microfracture et diminue donc le temps de rupture d'un échantillon.

Discutons maintenant du problème des extrêmes. L'eq. (4.11) prévoit que l'échantillon se casse pour des pressions très faibles. Quelqu'un pourrait y voir une contradiction avec l'expérience de tous les jours en disant : " mais les objets ne se cassent pas s'ils sont soumis à de petites charges ! ". Une analyse plus attentive montre que la contradiction n'existe pas car le temps de rupture prévu par l'eq. (4.11) est extrêmement long pour les petites pressions. Par exemple, dans le cas des échantillons en BA, pour P=0.43 atm le temps de rupture est t ~5000 s, mais pour P=0.21 atm, c'est-à-dire la moitié de la pression précédente, le temps de rupture (t =1037 ans) dépasse l'âge de l'univers!

Regardons maintenant le cas des hautes pressions. L'eq. (4.11) prévoit un temps de rupture fini (t o) pour , ce qui est absurde. En fait, lorsqu'on impose une pression très élevée, on ne peut plus négliger le régime transitoire, c'est-à-dire la montée de la pression de zéro jusqu'à la valeur souhaitée. Dans le prochain paragraphe on définira une loi valable pour des pressions variant dans le temps, et qui permet d'étudier le régime transitoire.
 
 

      1. Généralisation à tous types de charge


Nous avons vu que l'eq. (4.11) prédit très bien le temps de vie de l'échantillon dans le cas à pression constante. Nous allons essayer de généraliser cette équation de façon à ce qu'elle puisse marcher pour n'importe quelle pression appliquée (dans la limite quasi-statique, par 4.4c).

Si nous considérons que la densité de probabilité de rupture de l'échantillon est :

(.13) 

alors, la probabilité de rupture Pr(t)au temps t est :

(.14) .

L'échantillon se cassera donc quand Pr(t)=1:

(.15) .

Nous avons fait plusieurs expériences pour vérifier la validité de cette équation.

Dans la figure 49a on montre la pression P (points) et la fonction Pr(t) (ligne continue) au cours du temps pour un échantillon en BA. Nous avons chargé l'échantillon avec une pression constante (P=0.49 atm) pendant t 1=600 s, et ensuite relaxé le système (P=0) pendant t 2=900 s et enfin imposée la même pression qu'auparavant (P=0.49 atm) jusqu'à la rupture de l'échantillon (au temps t ). La différence entre le t mesuré (2170 s) et le temps prédit par l'éq.(4.15), 2220 s, est inférieur à 3%. Cette expérience montre que les échantillons ont une mémoire de leur histoire.

figure 49 : Pression (points) et Pr(t) (ligne continue) en fonction du temps pour différents types de charges.La différence entre le temps de vie prédit par l'éq.(4.15) et le temps de vie mesuré t est toujours inférieure à 12%.

En effet, la somme t 1+(t -t 2) est le temps de vie qu'on obtient si l'on impose P=0.49 atm sans jamais relaxer le système. Dans une autre expérience nous avons imposé à un échantillon en BA deux plateaux successifs de pression différente (P=0.34 atm et P=0.44 atm). Sur la figure 49b on montre la pression imposée (les points) et Pr(t) (ligne continue) en fonction du temps. Dans ce cas aussi le temps prédit par l'éq.(4.15), 32121 s, est en bon accord avec le résultat expérimental (33860 s): la différence est inférieure à 5%. Nous avons ensuite cassé un échantillon en lui imposant une pression erratique, figure 49c. La pression imposée (les points) est une succession de rampes à vitesses variables et de plateaux. La prédiction théorique (3401 s) diffère de la mesure expérimentale (3837 s) de moins de 10%. Les dernières vérifications ont été faites en imposant des rampes de pression de vitesse Ap, comprises entre 10-5 et 10-3 atm/s, à des échantillon en BA et FV3.

Dans ce cas, l'intégrale en eq.(4.14) peut être résolue analytiquement :

(.16) .

Dans l'équation G représente la fonction gamma incomplète. Sur la figure 50 on montre les temps de vie t pour des échantillons en BA (cercles) et en FV3 (carrés) en fonction de la vitesse de la rampe Ap. Les lignes continues représentent les prédictions du modèle théorique, i.e. les solutions de l'équation , pour différents Ap. Les triangles représentent les mesures effectuées à haute température (T=380 K), ou en imposant des vibrations à l'échantillon. L'accord entre les prédictions et les mesures est très bon, l'écart maximum étant de 8% pour le BA et de 9% pour FV3.

figure 50 : Temps de vie t pour des échantillons en BA (cercles) et en FV3 (carrés) en fonction de la vitesse de la rampe Ap. Les lignes continues représentent les solutions de l'équation . Les triangles représentent les mesures effectuées à haute température (T=380 K), ou en imposant des vibrations à l'échantillon.

A la lumière de ces expériences, on peut conclure que l'eq.(4.15) prédit assez bien, avec une erreur toujours inférieure à 10%, le temps de vie des échantillons indépendamment de l'allure de la pression que l'on impose à l'échantillon.

      1. Conclusions et comparaison avec d'autres expériences

En accord avec la théorie de Pomeau [], nous avons constaté que la rupture à pression constante de nos échantillons est due à la coalescence d'une multitude de microfractures apparues par nucléation. Le même phénomène a été observé sur des cristaux bidimensionnels d'acide NDB-stéarique [, ]. Dans le cas des gels [], en revanche, on trouve que la rupture est due à la nucléation d'une seule microfracture. Dans les trois cas, les fluctuations thermiques ne possèdent pas l'ampleur nécessaire pour, à elles seules, provoquer la nucléation des microfractures, car la température devrait être de quelques milliers de Kelvin (~5070 K pour les cristaux). Si cela semble évident pour des systèmes macroscopiques tels que les gels et nos échantillons, ça ne l'est pas pour les cristaux (système microscopique). Selon nous, les fluctuations thermiques sont amplifiées par le désordre présent dans le système. Nous avons étudié et vérifié numériquement (prochain chapitre) cette hypothèse. Du point de vue expérimental en revanche, les manipulations qui étudient cette question sont encore en cours. Toutefois, dans les expériences sur les gels, une variation d'inhomogénéités du matériau engendre une diminution du temps de rupture. Ce résultat pourrait être vu comme une confirmation de notre hypothèse. Les auteurs de l'article [], en revanche, associent la variation du désordre dans les gels à une variation de la dimension du système. La même hypothèse, c'est-à-dire le fait que le désordre amplifie l'effet des fluctuations thermiques, a été formulée et vérifiée dans un contexte très différent du nôtre : la croissance des mousses [].

La compréhension de la nature du phénomène responsable de la rupture des échantillons à pression constante nous a permis d'écrire une équation [eq. (4.15)] capable de prédire, pour toutes types de charges, le temps de vie des échantillons avec une bonne précision (erreur < 10%). Une fois déterminée la dépendance de Po et t o de la géométrie, cette loi de prédiction pourrait être exploitée dans nombreuses applications pratiques.

    1. Effet Kaiser

Dans certains matériaux l'émission acoustique est nulle tant que la contrainte appliquée P est inférieure à la valeur maximale Pk atteinte dans le passé. Cet effet, communément appelé effet Kaiser, a été démontré dans les métaux et les roches. Il a été découvert par Kaiser [] au début des années 50. L' effet Kaiser a été considéré comme universel jusqu'aux années 80, quand Sondergeld et Estay [] ont fait remarquer que sur certains granites (Westerley) il n'est pas valable.

figure 51 : Effet Kaiser : pression imposée au cours du temps(a), nombre d'événements (b) et énergie émises (c) en fonction du nombre de cycles.

Une bonne connaissance de cet effet est très important car il permet de remonter à la contrainte maximale à laquelle l'échantillon a été soumis dans son histoire. Les géologues l'utilisent pour la datation géologique des roches et les mécaniciens pour évaluer les efforts mis en jeu dans leurs engins.

Nous avons fait des mesures pour voir si l'effet Kaiser est valable dans les matériaux hétérogènes. Nous présenterons ici les mesures relatives aux échantillons en BA. Les mesures sur les fibres de verre donnent des résultats similaires. Sur la figure 51a on montre la pression appliquée à l'échantillon en fonction du temps. La pression est périodique (à dents de scie), les six premiers cycles étant composés par une rampe de pression suivie d'une décharge très rapide. Nous appellerons pression de Kaiser Pk le minimum des pressions maximales atteintes dans chaque période. Dans le dernier cycle la pression augmente jusqu'à la rupture de l'échantillon. Sur la figure 51b on montre Ni/N1 en fonction du nombre de cycle, où Ni représente le nombre d'événements enregistrés au cours de l'i-ème cycle de pression (tant que P<Pk). Sur la figure 51c on montre l'énergie Ei émise au cours de l'i-ème cycle, normalisée par l'énergie E1, en fonction du nombre de cycles. La plupart des événements a lieu au cours du premier cycle. L'énergie et le nombre d'événements enregistrés au cours des cycles suivants sont très inférieurs (d'environ 80%) par rapport à ceux du premier (Ni<<N1, e i<<e 1 pour i=[2,7]). L'activité acoustique semble légèrement croître en fonction du nombre de cycles. Les mesures nous montrent donc qu'un nombre non négligeable d'événements sont enregistrés après le premier cycle. Pour pouvoir affirmer qu'il s'agit d'une violation de l'effet Kaiser, il faut être sûr que les émissions enregistrées correspondent bien à l'apparition de nouvelles microfractures. On peut exclure a priori que les événements soient causés par du bruit électrique ou acoustique, le trigger du système d'acquisition étant réglé au-dessus du seuil du bruit avant chaque expérience. Les événements dus au bruit représentent au plus 1% des émissions enregistrées. Les émissions pourraient alors être causées par le frottement de certaines parties de l'échantillon qui se sont cassés au cours du premier cycle.

figure 52 : Points d'émission des microfractures apparues pendant le premier cycle (colonne de gauche) et dans les cycles suivants (colonne du centre). Les points d'émission ne sont pas les mêmes (colonne de droite).

Dans ce cas, les points d'émission des événements devraient être toujours les mêmes. Or, si l'on regarde les points d'émission des événements enregistrés au cours du premier cycle (colonne de gauche sur la figure 52) et ceux des évènements enregistrés au cours des autres cycles (colonne du centre sur la figure 52) on voit que les points d'émissions sont distribués différemment, c'est-à-dire que les événements ne proviennent pas des mêmes endroits (colonne de droite sur la figure 52). De plus, la distribution N(e ) des énergies émises par les événements du premier cycle (les carrés sur la figure 53) est identique à celle des énergies émises par les événements dans les cycles suivants (les cercles sur la figure 53).

figure 53 : Distribution de l'énergie e émise au cours du premier cycle (carrés) et dans les cycles suivants (points noirs). Les deux distributions suivent une loi de puissance d'exposant b =1.5 (N(e )=e -b ).

En effet, les deux distributions suivent une loi de puissance d'exposant b =1.5 (N(e )=e -b ). Cela signifie que le mécanisme qui produit les émissions acoustiques est le même dans tous les cycles. Nous pensons que ces deux derniers résultats prouvent que les émissions acoustiques enregistrées dans les cycles suivants le premier sont générées par l'apparition de nouvelles microfractures.

L'activité acoustique de l'échantillon reprend avec vigueur lorsque P>Pk. Sur la figure 54 on montre l'énergie e émise (normalisée à 1) au cours du dernier cycle en fonction de la pression P normalisée à la pression de rupture Pc. Lorsque P arrive à Pk l'activité acoustique croît très soudainement. Cela signifie que même si l'effet Kaiser n'est pas strictement valide, l'étude de l'activité acoustique peut être utilisée pour évaluer la contrainte maximale supportée auparavant par l'échantillon.

figure 54 : Energie e (normalisée à 1) en fonction de P/Pc pour le dernier cycle. Lorsque P=Pk, l'activité acoustique reprend, soudainement, avec vigueur.

Nous avons donc vu que dans les matériaux hétérogènes que nous avons étudié l'effet Kaiser n'est pas valable. Toutefois, l'étude des émissions acoustique peut quand même donner des informations sur l'histoire de l'échantillon. Ces résultats sont similaires à ceux trouvés sur le granite Westerley. Dans un modèle théorique ou numérique purement déterministe, l'effet Kaiser est toujours valable. Dans le prochain chapitre nous montrerons que si nous introduisons des effets stochastiques dans un modèle de réseau de fusibles, l'effet Kaiser n'est plus valable et que le comportement de ce même réseau devient alors assez proche de celui de nos échantillons.
 
 

  1. Simulation Numérique


Un modèle numérique qui a souvent été utilisé pour étudier certaines propriétés (dont la fracture) des matériaux hétérogènes est le Bundle Model, le modèle des fibres en parallèle [, , , , ]. Dans ce modèle, le système est constitué de N fibres (en parallèle) dont les extrémités sont collées sur deux supports. Lorsqu'on éloigne les supports, les fibres sont soumises à une contrainte. Généralement, on étudie l'évolution du module de Young, la force maximale supportée ou la statistique des avalanches (histogramme, taille moyenne, etc.) en fonction de la contrainte appliquée ou d'autres paramètres tels que les propriétés mécaniques (et leur distribution) des fibres, la rigidité des supports (qui détermine la portée des interactions) et d'autres encore. Les effets temporels ne sont jamais pris en compte.

Même si ce modèle est très simple, il donne des résultats qui sont assez proches des observations expérimentales sur les matériaux hétérogènes.

Afin de vérifier les hypothèses formulées dans le chapitre précédent, rupture de l'échantillon par nucléation, amplification des fluctuations thermiques par le désordre du matériau (par. 4.4c), nous avons introduit le concept de bruit thermique et donc de temps dans le modèle des fibres en parallèle.

On verra que dans le cas d'une force F appliquée constante, la relation entre le temps de vie de l'échantillon t et F est similaire à celle prédite par Pomeau dans les cas des fractures des microcristaux (voir par. 2.5c). Nous verrons en revanche que t dépend, en plus de la température, de l'hétérogénéité du système. Nos hypothèses seront donc, dans ce modèle, validées.

De plus, comme nous avons pu l'observer dans nos expériences, les distributions de l'énergie e relâchée par le système et de la fréquence d'émission 1/d t suivent des lois de puissance et, près de la rupture, .

    1. Définition du modèle


Le modèle que nous avons étudié est défini de la manière suivante : N fusibles, chacun de résistance unitaire, sont connectés en parallèle, et branchés à un générateur G de courant I (figure 55a). En parallèle à chaque fusible i il y a un générateur GRi de courant aléatoire D Ii. Lorsque le courant Ii traversant un fusible dépasse une valeur de seuil Idi, le fusible fond, sa conductance passe alors (instantanément) de 1 à 0. Nous dirons par la suite que le fusible a nucléé. Les courants de seuil sont distribués aléatoirement selon une loi gaussienne dont la largeur détermine l'hétérogénéité du système. Nous appellerons le bruit du désordre kTd le carré de l'écart-type de cette gaussienne et <Id> sa valeur moyenne. Si kTd=0 alors tous les fusibles ont le même courant de seuil. Le courant circulant à travers le i-ème fusible au temps t est :

(.1) ,

n(t) représente le nombre total de fusibles fondus, depuis le début, jusqu'au temps t. La valeur de D Ii(t) change aléatoirement à chaque pas de temps, sa loi de distribution est une gaussienne centrée en zéro dont l'écart-type au carré représente ce qu'on appellera le bruit thermique kT. Si au temps t un ou plusieurs fusibles fondent, les courants qui les traversaient sont redistribués, au temps t+1, dans les fusibles restants. La redistribution est faite en accord avec les lois de Kirchhoff. La rupture d'un ou plusieurs fusibles au même instant t constitue un événement, ou une avalanche, dont la taille s(t) correspond au nombre de fusibles fondus et l'énergie e (t) est .

figure 55 : a) Le modèle des fusibles en parallèle.N fusibles sont connectés en parallèle et branchés à un générateur G de courant I. En parallèle à chaque fusible i il y a un générateur GRi de courant aléatoire D Ii. Lorsque le courant Ii traversant un fusible dépasse une valeur de seuil Idi, le fusible fond, sa conductance passe alors de 1 à 0. b) L'analogue mécanique du modèle de fusibles en parallèle.

On considère en effet que l'énergie émise par un fusible qui fond est proportionnelle au carré du courant qui la traversait.

Les expériences sont faites en imposant un courant I (constant ou variable) au circuit jusqu'à la rupture du réseau (i.e. la rupture de tous les fusibles). Au cours des expériences nous mesurons : l'énergie e des événements, les temps t auxquels les événements se produisent et le temps de vie t de l'échantillon, c'est-à-dire le temps qui s'écoule entre le début de l'expérience et la rupture du réseau.

Si l'on considère l'analogie entre électrostatique et mécanique, le réseau ici présenté est alors équivalent à N fibres élastiques (ressorts) de module de Young et de longueur identique, dont les extrémités sont collées sur deux supports plans, parallèles entre eux et de rigidité infinie (figure 55b). Faire passer un courant I à travers le réseau de fusibles équivaut à appliquer une force de traction F au système de fibres. Remarquons que l'énergie e relâchée par une fibre qui se casse est proportionnelle à l'énergie potentielle emmagasinée dans la fibre juste avant la rupture. Si l'on considère que l'énergie d'une émission acoustique est proportionnelle à l'énergie de l'onde élastique qui l'a générée, et que cette dernière est proportionnelle à l'énergie potentielle emmagasinée dans le lien qui la crée (en se cassant), alors l'énergie e définie dans notre modèle peut être comparée à l'énergie acoustique que l'on mesure dans nos expériences.

    1. Résultats


Dans toutes les simulations présentées ci-dessous, sauf spécification contraire, nous avons considéré N=1000 et <Id>=1.

      1. Relation entre t et I

I constant

Etudions tout d'abord le comportement du réseau homogène (kTd=0, Idi=<Id>). Si on applique un courant I constant à celui-ci, la dynamique dépend de la valeur de la température T. Si la température est nulle, kT=0, le réseau a un comportement assez prévisible : si I<Id rien ne se passe (aucun fusible ne fond), et si I³ Id le réseau se casse instantanément. En revanche, si kT>0, alors la dynamique du système est bien plus intéressante.

figure 56 : a) Temps de vie t du réseau homogène en fonction de 1/i2 pour des kT différents. Les mesures sont très bien interpolées par. b)Temps de vie t du réseau homogène en fonction de 1/kT. Les données sont bien interpolées par des lois du type (lignes continues).

Sur la figure 56a est représenté, en échelle semi-logarithmique, t en fonction de , où . Les trois séries correspondent à des mesures faites à des kT différents : kT=9’10-3 pour les cercles, kT =1.2’10-2 pour les losanges et kT =1.5’10-2 pour les étoiles. Les mesures sont très bien interpolées par des droites de pente Io et d'ordonnée à l'origine t o : les lignes continues sur la figure 56a représentent celles qui interpolent le mieux les points. Le temps de vie t de l'échantillon dépend donc de l'exponentielle de 1/I2, comme c'est le cas dans la théorie de Pomeau concernant les fractures (par. 2.5c) :

(.2) .

figure 57: Temps de vie t en fonction de 1/i2 pour différentes valeurs de kTd. Comme dans le cas Td=0, figure 56, les données sont bien interpolées par des courbes (lignes continues).

Regardons maintenant de quelle façon t dépend de la température. Si l'on regarde à la figure 56b, ou est représenté, en échelle semi-logarithmique, t en fonction de 1/kT on s'aperçoit que les données sont très bien interpolées par une lois du type , où a est une constante (à I fixé). Ce résultat est lui aussi similaire aux prédictions de la théorie de Pomeau. Ce que cette théorie ne considère pas est l'hétérogénéité du matériau. Nous nous intéressons maintenant au comportement du réseau en fonction de son hétérogénéité, c'est-à-dire du bruit de désordre kTd. Sur la figure 57 est représenté, en échelle semi-logarithmique, t en fonction de 1/i2 pour différentes valeurs de Td, la température T étant fixée (kT=0.059). Comme dans le cas Td=0, figure 56, les données sont bien interpolées par des courbes (les lignes continues sur la figure 57).

figure 58 : t en fonction du bruit de désordre kTd pour différentes valeurs de i et kT. Au fur et à mesure que kTd augmente, t et diminuent. Plus le réseau est hétérogène, plus il est facile à casser et moinst dépend de la température.

L'introduction du désordre dans le réseau ne change donc pas le type de relation entre t et I. Regardons maintenant la dépendance de t en fonction du bruit de désordre. Sur la figure 58 on montre, en échelle logarithmique, t en fonction de kTd. Chaque série de mesures correspond à une température T différente. Les cercles représentent les simulations faites à i=0.57 et les triangles celles faites avec i=0.54. La figure 58 nous montre qu'au fur et à mesure que kTd augmente, t et diminuent. Cela signifie que plus le réseau est hétérogène, plus il est facile à casser et moins il est dépendant de la température (en ce qui concerne le temps de rupture). Cela pourrait expliquer certains résultats expérimentaux, notamment les mesures à haute température, dont nous avons parlé dans le chapitre précédent, nous discuterons de cela plus tard. En conclusion, nous retiendrons trois choses des mesures ici présentées :

  1. Si kT=0, l'échantillon se casse (instantanément) seulement si I>Id.
  2. t diminue quand le désordre (kTd) augmente.

Le premier résultat étant similaire aux prédictions de la théorie de Pomeau, nous sommes en mesure de penser que l'apparition de nouvelles microfractures, et donc la rupture du réseau, est due à un processus de nucléation. Le résultat du point b) est évident : si on enlève au système la source des fluctuations, il ne peut pas y avoir de nucléation de fusibles. Le point c) confirme notre hypothèse selon laquelle le désordre amplifie les fluctuations thermiques.

I variable

Nous avons vu que l'eq. (5.2) prédit très bien le temps de vie du réseau dans le cas à courant constant. Nous allons essayer de généraliser cette équation de façon à ce qu'elle puisse marcher pour n'importe quel courant appliqué. Pour ce faire, on agit comme on l'a fait (par. 4.4b) dans le cas de l'eq. (4.11) du chapitre précédent, c'est-à-dire qu'on considère 1/t (I) comme la probabilité que le réseau a de se casser, dans l'unité de temps, lorsqu'il est soumis à un courant I. La probabilité Pr(t) de rupture au temps t est alors :

(.3) .

Le réseau se cassera donc lorsque Pr(t)=1:

(.4) .

Pour vérifier la validité de cette prédiction, nous avons imposé des courants variables à notre réseau de fusibles en parallèle. Nous avons d'abord imposé des rampes de courant I de pente Ap. Sur la figure 59a, en échelle logarithmique, on montre les temps de vie prédits par l'éq.(5.4) (ligne continue) et ceux résultants des mesures numériques (cercles) en fonction de la pente Ap de la rampe de courant. Les prédictions s'accordent très bien avec les mesures, l'écart est toujours inférieur à 1.5 %. Pour ces simulations, kT=9’10-3 et kTd=1.5’10-2. On a ensuite imposé des courants I sinusoïdaux de période Tw et d'amplitude Io . La phase j est choisie de sorte que I(0)=0. Sur la figure 59b on montre les résultats des mesures effectuées avec différentes valeurs de Tw .

figure 59 : a) Rampe de courant, les temps de vie t prédits par l'éq.(5.4) (ligne continue) et ceux résultants des mesures numériques (cercles) en fonction de la pente Ap de la rampe de courant. b) I sinusoïdal, t prédits (ligne continue) et t mesurés numériquement (cercles) en fonction de la période Tw . Dans les deux cas, l'écart entre mesures et prédictions est toujours inférieur à 1.5 %

Les temps de vie résultants des simulations (cercles) et ceux prédits par l'éq.(5.4) (ligne continue) sont représentés en fonction de la période Tw du courant I. Pour les mesures ici présentées, kT=9’10-3 et kTd=1.5’10-2. Une fois de plus, l'accord entre les prédictions et les mesures est très grand (écart toujours inférieur à 3%). Regardons plus en détail une des mesures, par exemple celle faite avec Tw =1927. La ligne continue sur la figure 60 représente le courant i=I/N imposé au réseau en fonction du temps. Le réseau s'est cassé après 13100 pas de temps. Sur la même figure, la ligne pointillée représente la fonction Pr(t). Le temps auquel Pr(t)=1, c'est-à-dire le temps de rupture prédit, est 12934. La différence entre les deux temps est inférieure à 2%. On obtient des résultats similaires si l'on considère des températures (thermiques ou de désordre) différentes de celle utilisés dans les simulations ici montrées.

A la lumière de ces résultats, nous pouvons conclure que le temps de vie du réseau est très bien prédit par l'éq.(5.4). Cela signifie le processus de nucléation détermine la rupture du réseau indépendamment de la charge qu'on lui impose.

figure 60 : i (ligne continue) et Pr(t) (ligne pointillée) en fonction du temps dans le cas d'un courant I sinusoïdal. L'écart entre le temps de rupture prédit (Pr(t)=1) et le temps t mesuré est inférieur à 2%.

Nous faisons ici remarquer que ces conclusions sont identiques à celles tirées du chapitre précédent (par. 4.4b) lorsqu'on étudiait la dépendance du temps de vie de nos échantillons en fonction de la pression qu'on leur imposait.

Distributions des t

Nous nous intéressons à la distribution des temps de rupture t . Lorsqu'on considère réseau composé par un seul fusible et qu'on mesure ( à T et I fixés) plusieurs fois le temps de rupture t 1, on s'aperçoit qu'il est distribué selon une loi de Poisson, figure 61a. La rupture d'un fusible est donc un processus aléatoire dont la distribution des temps de rupture suit une loi de Poisson. En revanche, si l'on considère un réseau avec plusieurs fusibles (N>1) la loi de distribution des t 1 suit une gaussienne, figure 61b, dont l'écart-type dépend de Td. La distribution N(t ) montrée dans la figure 7b a été obtenue avec un réseau de N=1000 fusibles.

figure 61 : Distribution de t pour un fusible (a) et pour un réseau de N=1000 fusibles (b). Pour un seul fusible (N=1) la distribution de t suit une loi de Poisson, au fur et à mesure qu'on augmente le nombre de fusibles N la distribution de t tend vers une loi Gaussienne.

Ce résultat n'est pas banal car la probabilité de rupture d'un fusible est corrélée à celle des autres fusibles par le courant, et en conséquence le théorème de la limite centrale n'est pas applicable. Nous faisons remarquer que la distribution des temps de vies des échantillons cassés à pression constante dans la chambre à haute pression suit aussi une loi gaussienne.

      1. Distributions de e et d t


Nous nous intéressons désormais aux propriétés statistiques de l'énergie relâchée e et des intervalles de temps d t qui s'écoulent entre deux événements successifs. Comme dans nos expériences (par. 4.2a), nous considérons deux cas particuliers : I constant et I à croissance constante (rampe). Nous présenterons ici les résultats obtenus avec kT=9’10-3 et kTd=10-2.

I à croissance constant

Si on impose une rampe de courant I au réseau, les distributions de e et d t suivent des lois de puissance.

figure 62 : Distributions d'énergie (a) et distributions de d t (b) en échelle logarithmique. Chaque distribution correspond à une simulation faite avec une différente vitesse Ap de la rampe de courant. Les distributions sont indépendantes de la vitesse de la rampe.

Nous avons comparé entre elles les distributions obtenues avec des rampes de I de vitesses Ap différentes et nous avons trouvé qu'elles suivent toujours la même loi de puissance. Sur la figure 62a sont montrées, en échelle logarithmique, plusieurs distributions d'énergie e . Chaque distribution correspond à une simulation faite avec une différente vitesse Ap de la rampe de courant. Toutes ces distributions sont bien interpolées par la loi de puissance d'exposant b =2.2, (N(e )~e -b ). Sur la figure 62b sont représentées les distributions des d t correspondant aux mêmes simulations. Dans ce cas aussi toutes les distributions sont bien interpolées par une même loi de puissance (). Dans ce cas l'exposant est a r =1.7.

Ces résultats sont très similaires à ceux obtenus dans la chambre à haute pression (par. 4.2a). En effet, on avait trouvé que les distributions des e et des d t suivaient des lois de puissance dont les exposants sont constants en fonction de la vitesse de la rampe.

Les exposants a et b ne dépendent pas de l'hétérogénéité du système. En effet, nous avons mené des expériences similaires sur des réseaux ayant un bruit de désordre différent et nous avons trouvé les mêmes exposants a et b .

I constant

Les distributions de e et d t suivent des lois de puissance même si on impose un courant I constant au réseau. Sur la figure 63a on montre, en échelle logarithmique, les distributions d'énergie e obtenues pour différentes valeurs de I. Comme dans le cas à I croissant, les distributions suivent une même loi de puissance (). De plus, l'exposant de cette loi est le même que dans le cas précédent, on trouve en effet b =2.2.

Pour les distributions des d t, les résultats sont un peu différents. Comme pour les distributions de l'énergie, celles-ci suivent toutes une loi de puissance, figure 63a, dont l'exposant, a c=1.13, est constant en fonction de la valeur de I appliqué. En revanche, a c est différent (plus petit) de l'exposant a r trouvé dans le cas à rampe de I imposée. Dans la figure 64 on montre deux distributions (normalisées à 1) de d t ; la première (triangles) a été trouvée en imposant au réseau une rampe de I et la deuxième (cercles) correspond à une simulation faite en imposant au réseau un courant constant. Ces résultats sont en désaccord avec les observations expérimentales faites sur la chambre à haute pression où on avait trouvé que les exposants des distributions des e et des d t variaient en fonction de la pression imposée (par 3.2a).

figure 63 : Distributions d'énergie N(e ) a) et distributions de d t N(d t) b) en échelle logarithmique. Chaque distribution correspond à une simulation faite avec une différente valeur de I (constante) imposé. Les distributions de e et de d t suivent toutes des lois de puissance. Les exposants de ces lois sont indépendants de la valeur du I imposé.

figure 64 : Distribution des d t à rampe de I imposée (triangles) et à I constant (cercles) en échelle logarithmique. L'exposant de la loi de puissance suivie par la distribution dépend du type de charge.

      1. Allure de l'énergie relâchée près de la rupture


Pour mieux comparer les résultats du modèle numérique avec ceux expérimentaux, nous définissons l'énergie cumulée E de la même manière que dans le chapitre précédent (par. 4.2b):

(.5) .

Nous étudions E en fonction du paramètre réduit (t -t)/t, et en particulier nous regardons son allure près de la rupture, pour voir si, comme dans les expériences, E diverge avec une loi de puissance. Nous avons étudié l'allure de E dans le cas I constant, I périodique (sinusoïdal) et I à croissance constante (rampe). Dans les trois cas, près du point de rupture, E diverge, en fonction du paramètre réduit, en suivant une loi de puissance, . L'exposant g dépend de la charge imposée. Sur la figure 65 on montre, en échelle logarithmique, E en fonction de . Les cercles, figure 65a, correspondent à l'énergie mesurée dans le cas I constant, les losanges, figure 65b, au cas I à croissance constante (rampe) et les croix, figure 65c, au cas I sinusoïdal. Dans le cas à courant constant, E suit une loi de puissance sur quatre décades avant le moment de la rupture, alors que dans le cas I sinusoïdal et I à croissance linéaire la divergence de l'énergie est plus rapide (i.e. l'exposant est plus grand) et plus courte (seulement deux décades). Nous pensons que la valeur de l'exposant g et la durée de la divergence en loi de puissance sont liées au courant critique Ic, c'est-à-dire à la valeur du courant au moment de la rupture. Plus Ic est élevé, plus l'exposant est grand et la divergence courte. En effet, nous avons pu observer que dans le cas I constant, g const augmente quand la valeur du courant I imposé augmente, et de plus, la divergence en loi de puissance de l'énergie E est plus courte. Remarquons ici que l'allure de E près de la rupture est du même type que celle trouvée expérimentalement sur la machine à traction et la chambre à haute pression (par. 4.2b).
 
 

figure 65 : E (points) en fonction de dans le cas I constant (a), I linéaire (b) et I sinusoïdal (c). Près du point de rupture (ligne continue), où l'exposant g dépend de la charge imposée.

      1. Effet Kaiser

Regardons la statistique des avalanches et l'énergie émise par le système lorsqu'on lui impose un courant périodique . Si kT=0, l'effet Kaiser (par. 4.5) est strictement valide, c'est-à-dire qu'après le premier cycle (période), aucune avalanche ne se produit plus. En revanche, si kT¹ 0, le comportement du réseau est différent. Nous allons montrer les résultats obtenus sur un réseau avec kT=9’10-3 et kTd=1.5’10-2. Sur la figure 66 on montre le courant I (ligne pointillée) en fonction du temps. Les cercles sur la courbe i(t) représentent les instants d'émission des avalanches que l'on a eu. Des avalanches sont advenues dans les cycles (périodes) suivant le premier, cela signifie que l'effet Kaiser n'est pas valable. Sur la figure 67 on montre Ni/N1(ligne continue) et Ei/E1 (ligne pointillée) en fonction du cycle. Ni représente le nombre d'avalanches et Ei l'énergie émise au cours de l'i-ème cycle. Au premier cycle plusieurs avalanches se produisent, ensuite Ni et Ei décroissent fortement. Au deuxième cycle on a environ 50% d'émissions et d'énergie émise en moins (N2~0.5N1, E2~0.5E1). Ensuite Ni et Ei croissent à chaque cycle. A partir du quatrième cycle, l'énergie émise est supérieure à celle émise au premier : E4,5>E1. Le nombre d'émissions Ni croît moins rapidement que l'énergie émise Ei, en conséquence, l'énergie moyenne Ei/Ni émise par une avalanche (les carrés sur la figure 67) crôit à chaque cycle.

figure 66 : I (ligne pointillée) en fonction du temps, et les instants d'émission (cercles).
 
 

figure 67 : L'énergie Ei, le nombre d'émission Ni et l'énergie moyenne Ei /Ni de chaque cycle.

La non-validité de l'effet Kaiser est donc due au bruit introduit sur le courant, c'est-à-dire au processus de nucléation qu'il engendre. Dans un modèle purement déterministe, l'effet Kaiser est toujours valable.

Nous faisons enfin remarquer que la figure 67 est très proche de celle obtenue à partir des données expérimentales, figure 51.

    1. Conclusions

Nous avons vu que si dans le modèle des fibres en parallèle, on introduit un bruit sur les courants Ii circulant dans les fusibles, le réseau se casse même si on lui applique un courant I constant ; de plus, le temps de vie t du réseau est bien représenté par l'équation , où a' est un paramètre qui ne dépend ni de I, ni de kT. Mais le but principal de cette simulation était de voir si le désordre intrinsèque du réseau intervient dans la dynamique du système vers la rupture, et si oui comment il le fait. Nous avons donc introduit le bruit de désordre kTd dans notre modèle : nous avons ainsi pu observer que si l'on augmente le désordre (kTd), le temps de vie t du réseau diminue (à I et kT fixés) et que la relation entre t et I reste toujours du type : . Cela signifie que l'effet des fluctuations thermiques sur le système dépend du désordre initial. De plus, au fur et à mesure que kTd augmente, t dépend de moins en moins de la température T. Nous avons enfin prouvé que pour un I quelconque, on peut évaluer le temps de vie t par l'équation , où t o et Io sont des constantes.

En étudiant l'énergie e émise par les fusibles qui fondent et les intervalles de temps d t s'écoulant entre deux avalanches successives, on a trouvé d'autres similitudes avec les résultats expérimentaux. En effet, les distributions de e et d t suivent des lois de puissance et, de plus, près de la rupture . En revanche, plusieurs différences, en ce qui concerne la dépendance des exposants des conditions de charge, ont été remarquées.

L'introduction des fluctuations thermiques fait en sorte que l'effet Kaiser ne soit plus valide. Le comportement du réseau devient alors, une fois de plus, très proche de celui de nos échantillons.

Même si ce modèle est très simple et si l'analogie entre l'électrostatique et la mécanique n'est pas exacte dans ces conditions de charge, son comportement est très proche de celui d'un matériau hétérogène soumis à des contraintes. On est donc porté à comparer entre eux les résultats et à en fournir une interprétation commune : on pourrait alors dire que la loi trouvées dans nos échantillons est effectivement due à la présence des fluctuations thermiques et que le désordre du matériau amplifie l'effet de ces fluctuations et fait diminuer l'influence de la température sur t . De plus, la violation de l'effet Kaiser de nos échantillons pourrait elle-même liée à la présence des fluctuations thermiques.
 
 

  1. Conclusions et perspectives


Les mesures expérimentales et numériques présentées dans cette thèse nous ont aidé à comprendre plusieurs aspects jusque-là mal compris ou inconnus du phénomène de la fracture des matériaux hétérogènes. Nous allons résumer ici les résultats et les conclusions les plus significatives et donner des perspectives de travail.

    1. Emissions et état d'endommagement


Les expériences nous ont montré que l'on ne pouvait pas connaître l'état d'endommagement de l'échantillon en étudiant la vitesse de propagation, la distribution des points d'émission ou la distribution temps-fréquence des émissions acoustiques provoquées par les microfractures. Ceci est probablement dû au fait que les longueurs d'ondes des signaux que l'on mesure sont beaucoup plus grandes que la taille des microfractures qui se forment. La bande passante étant imposée par le système lui-même (via le coefficient d'atténuation), c'est donc la nature même des matériaux que nous avons utilisés qui limitent notre étude. Il faudrait trouver des matériaux permettant de mesurer avec un bon rapport signal-bruit les longueurs d'ondes du même ordre que la taille des microfractures. Nous avons aussi vu que les études statistiques sur les temps d'émission et l'énergie acoustique émise ne permettent pas non plus d'évaluer l'état d'endommagement de l'échantillon. En effet, la distribution N(d t) des temps écoulés entre deux événements consécutifs d t et la distribution N(e ) des les énergies acoustiques émises e suivent des lois de puissance dont les exposants ne dépendent pas de l'état de l'échantillon.

    1. Comportement des échantillons soumis à une charge


Nous avons constaté qu'un matériau hétérogène soumis à une charge n'est jamais à l'équilibre. Si la charge imposée est une déformation croissante ou une quelconque pression, l'échantillon évolue vers la rupture. En revanche, si on impose une déformation constante, l'échantillon évolue vers la configuration à contrainte nulle. Dans tous les cas, la rupture est due à la coalescence de plusieurs microfractures et, de plus, dans le système il n'y a pas d'échelle caractéristique ni en temps ni en énergie : les distributions de e et d t suivent des lois de puissance : N(e )~e -b ,. Lorsqu'on casse un échantillon à pression imposée, le point de rupture prend les caractéristiques d'un point critique : en effet, près de la rupture, l'énergie émise diverge en loi de puissance en fonction du paramètre réduit . Pour les matériaux que nous avons utilisés, l'exposant g , à l'erreur de mesure près, est toujours le même. Il serait intéressant de vérifier si c'est un cas particulier ou si g est un exposant universel.

figure 68: Schématisation de la dynamique d'un matériau hétérogène soumis à une charge. Un échantillon soumis à une déformation croissante ou à une pression (quelconque) produit des émissions acoustiques dont la fréquence d'émission et la distribution des énergies suivent des lois de puissances. L'échantillon se casse après un temps t qui est bien prédit par l'équation (6.2). Si l'on impose la pression, près du point de rupture . Si l'on impose une déformation constante, l'échantillon tend vers l'état à contrainte nulle et il ne se casse donc pas.

Dans ce but, des expériences sur de nouveaux matériaux vont bientôt débuter dans notre laboratoire. Les simulations numériques présentées dans le chapitre 5 montrent que le comportement du réseau de fusibles en parallèle a beaucoup de similitudes avec celui de nos échantillons. Nous pensons qu'avec un modèle numérique du même type, mais plus complet, on peut facilement arriver à reproduire, avec une grande précision, les allures statistiques des précurseurs de la fracture des matériaux hétérogènes.

Dans la figure 68 on montre une schématisation de la dynamique d'un matériau hétérogène soumis à une charge.

    1. Nature des microfractures

Nous avons mis aussi en évidence le fait que la rupture de nos échantillons est due à la coalescence d'une multitude de microfractures apparues par nucléation. En accord avec la théorie de Pomeau, nous avons trouvé que le temps de vie t d'un échantillon est bien prédit par l'équation :

(.1) .

Nous avons ensuite généralisé cette équation pour toutes types de pressions imposées et nous avons trouvé que le temps de vie est prévu, au 10% près, par l'équation :

(.2) .

Les fluctuations thermiques n'ayant pas l'ampleur nécessaire pour provoquer la nucléation des microfractures, nous avons fait l'hypothèse qu'elles pouvaient être amplifiées par le désordre du matériau. Pour vérifier cette hypothèse, nous avons fait des simulations numériques sur un simple modèle de fusibles. Les résultats numériques confirment que l'hétérogénéité du milieu accélère le processus de nucléation. Mais pour que notre conjecture soit démontrée définitivement, il faudrait faire des simulations sur un modèle un peu plus complet ou, encore mieux, faire des expériences de laboratoire. Ces expériences sont d'ailleurs en cours de projet dans notre laboratoire. Un autre projet expérimental qui est également en train de démarrer dans notre laboratoire vise à étudier les effets de la géométrie sur les équations (6.1) et (6.2). L'espoir est que la géométrie du système soit négligeable, de sorte que les équations en (6.1) et (6.2) soient applicables dans toutes les conditions expérimentales.
 
 
 
 
 
 
 
 
 
 

Bibliographie

ANNEXE
 
 

Les Articles Publiés


 
 

1) Statistical Properties of Fracture Precursors: A. Garcimartin, A. Guarino, L. Bellon and S. Ciliberto. Appeared on Physical Review Letter, 27 October 1997

An Experimental Test of the Critical Behaviour of Fracture Precursors: A. Guarino, A. Garcimartin and S. Ciliberto. Appeared on the European Physical Journal B, vol 6, 1 (1998) pp. 13-24.

3) Failure time and microcrack nucleation : A. Guarino, A. Garcimartin and S. Ciliberto. A paraître sur Europhysics Letters.