Inventions

Mercredi 20 janvier 3 20 /01 /Jan 12:27

Transformateur électrique

Un transformateur électrique est un convertisseur permettant de modifier les valeurs de tension et d'intensité du courant délivrées par une source d'énergie électrique alternative, en un système de tension et de courant de valeurs différentes, mais de même fréquence et de même forme. Il effectue cette transformation avec un excellent rendement. Il est analogue à un engrenage en mécanique (le couple sur chacune des roues dentées étant l'analogue du courant et la vitesse de rotation étant l'analogue de la tension).

On distingue les transformateurs statiques et les commutatrices. Dans un transformateur statique, l'énergie est transférée du primaire au secondaire par l'intermédiaire du circuit magnétique que constitue la carcasse du transformateur. Ces deux circuits sont alors magnétiquement couplés. Ceci permet de réaliser un isolement galvanique entre les deux circuits. Dans une commutatrice, l'énergie est transmise de manière mécanique entre une génératrice et un moteur électrique.

Vue en coupe d'un transformateur triphasé.
Montage d'un transformateur (Allemagne, 1981)

Invention 

Les principes du transformateur ont été établis en 1831 par Michael Faraday, mais celui-ci ne s'en servit que pour démontrer le principe de l'induction électromagnétique et n'en prévit les applications pratiques .

Lucien Gaulard, jeune électricien français, présente à la Société française des électriciens, en 1884, un « générateur secondaire », dénommé depuis transformateur.

En 1883, Lucien Gaulard et John Dixon Gibbs réussissent à transmettre pour la première fois, sur une distance de 40 km, du courant alternatif sous une tension de 2 000 volts à l'aide de transformateurs avec un noyau en forme de barres.

En 1884, Lucien Gaulard met en service une liaison bouclée de démonstration (133 Hz) alimentée par du courant alternatif sous 2 000 volts et allant de Turin à Lanzo et retour (80 km). On finit alors par admettre l'intérêt du transformateur qui permet d'élever la tension délivrée par un alternateur et facilite ainsi le transport de l'énergie électrique par des lignes à haute tension. La reconnaissance de Gaulard interviendra trop tardivement.

Entre-temps, des brevets ont été pris aussi par d'autres. Le premier brevet de Gaulard en 1882 n'a même pas été délivré en son temps, sous prétexte que l'inventeur prétendait pouvoir faire « quelque chose de rien » ! Gaulard attaque, perd ses procès, est ruiné, et finit ses jours dans un asile d'aliénés. Le transformateur de Gaulard de 1886 n'a pas grand-chose à envier aux transformateurs actuels, son circuit magnétique fermé (le prototype de 1884 comportait un circuit magnétique ouvert, d'où un bien médiocre rendement) est constitué d'une multitude de fils de fer annonçant le circuit feuilleté à tôles isolées.

Ainsi, en 1885, les Hongrois Károly Zipernowsky, Miksa Déry et Otto Titus Bláthy mettent au point un transformateur avec un noyau annulaire commercialisé dans le monde entier par la firme Ganz à Budapest. Aux États-Unis, W. Stanley développe des transformateurs.

Constitution 

Photographie des enroulements d'un transformateur triphasé.

Il est constitué de deux parties essentielles, le circuit magnétique et les enroulements.

Le circuit magnétique 

Le circuit magnétique d'un transformateur est soumis à un champ magnétique variable au cours du temps. Pour les transformateurs reliés au secteur de distribution, cette fréquence est de 50 ou 60 hertz. Le circuit magnétique est généralement feuilleté pour réduire les pertes par courants de Foucault, qui dépendent de l'amplitude du signal et de sa fréquence. Pour les transformateurs les plus courants, les tôles empilées ont la forme de E et de I, permettant ainsi de glisser une bobine à l'intérieur des fenêtres du circuit magnétique ainsi constitué.

Schémas des tôles d'un transformateur monophasé.
Schéma de la carcasse
d'un transformateur monophasé
bas de gamme.

Les circuits magnétiques des transformateurs « haut de gamme » ont la forme d'un tore. Le bobinage des tores étant plus délicat, le prix des transformateurs toroïdaux est nettement plus élevé.

Les enroulements 

Les enroulements sont en général concentriques pour minimiser les fuites de flux.

Le conducteur électrique utilisé dépend des applications, mais le cuivre est le matériau de choix pour toutes les applications à fortes puissances. Les fils électriques de chaque tour doivent être isolés les uns des autres afin que le courant circule dans chaque tour. Pour des petites puissances, il suffit d'utiliser des conducteurs magnétiques émaillés pour assurer cette isolation ; dans les applications à plus fortes puissances on entoure les conducteurs de papier diélectrique imprégné d'huile minérale. Pour les plus fortes puissances on utilise des conducteurs multibrins pour limiter l'effet de peau ainsi que les pertes par courants de Foucault.

Les enroulements du primaire ou du secondaire peuvent avoir des connections externes, appelées prise, à des points intermédiaires de l'enroulement afin de permettre une sélection de rapport de tension. Les prises peuvent être connectées à un changeur automatique de prises en charge pour le contrôle de la tension du circuit de distribution. Les transformateurs à fréquences audio, utilisés pour la distribution de l'audio à des haut-parleurs, ont des prises afin de permettre l'ajustement de l'impédance de chacun des haut-parleurs. Un transformateur à prise médiane est souvent utilisé dans les amplificateurs de puissance audio. Les transformateurs de modulation dans les transmetteurs à modulation d'amplitude sont très similaires.

Le système de refroidissement 

Dans le domaine de l'électricité en basse tension et dans le domaine de l'électronique, la dissipation thermique des transformateurs s'effectue par simple convection naturelle de l'air autour des enroulements primaires et secondaires.

Dans le cadre des circuits électriques à haute tension et de forte puissance, les transformateurs peuvent être équipés de divers dispositifs de refroidissement :

  • ailettes métalliques fixées tout autour de la cuve du transformateur qui évacuent la chaleur par convection naturelle ;
  • ailettes fixes associées à un condenseur à circulation forcée de l'huile d'isolation galvanique du transformateur ;
  • pour les transformateurs les plus puissants, par exemple ceux des grandes lignes THT de la RTE de 400 à 150 kV, on utilise des systèmes de ventilation forcée d'un important flux d'air associé ou non à un échange thermique avec l'huile de la cuve. Le dispositif de refroidissement est toujours couplé à un système de capteurs de température faisant office de thermostat (commande automatique de la mise en route de la ventilation).

L'huile contenue dans la cuve joue un double rôle : caloporteur et diélectrique. Les PCB ont été longtemps utilisés, mais depuis leur interdiction en 1987 (décret 87-59 du 2 février 1987, référence NOR ENVP8700002D), on utilise essentiellement de l'huile minérale.

Enfin signalons que dans le domaine de la radiodiffusion de forte puissance, les transformateurs d'impédance et les transformateurs d'accord sont parfois constitués d'une immense self rigide en cuivre creux dans lequel circule de l'eau pure (l'eau pure est un isolant électrique). Des blocs émetteurs de TDF à Allouis dans le Cher et à St-Aoustrille près d’Issoudun dans l’Indre ont utilisé cette technologie de dissipation thermique.

Fonctionnement du transformateur monophasé 

Transformateur parfait ou idéal 

Transformateur monophasé idéal

C'est un transformateur virtuel sans aucune perte. Il est utilisé pour modéliser les transformateurs réels. Ces derniers sont considérés comme une association d'un transformateur parfait et de diverses impédances.

Dans le cas où toutes les pertes et les fuites de flux sont négligées, le rapport du nombre de spires primaires sur le nombre de spires secondaires détermine totalement le rapport de transformation du transformateur.

  • Exemple : Un transformateur dont le primaire comporte 230 spires alimenté par une tension sinusoïdale de 230 V de tension efficace, le secondaire qui comporte 12 spires présentera à ses bornes une tension sinusoïdale dont la valeur efficace sera égale à 12 V. (Attention, en général 1 spire n'est pas égale à 1 V)
 \frac{U_2}{U_1} = \frac{N_2}{N_1}

Comme on néglige les pertes, la puissance est transmise intégralement, c'est pourquoi l'intensité du courant dans le secondaire sera dans le rapport inverse soit près de 19 fois plus importante que celle circulant dans le primaire.

De l'égalité des puissances apparentes :  S_1 =S_2 \,, soit :  U_1I_1 = U_2I_2 \, on tire :

 \frac{U_2}{U_1} = \frac{I_1}{I_2}.

Les pertes de puissance d'un transformateur 

Les pertes par effet Joule

Les pertes par effet Joule dans les enroulements sont appelées également « pertes cuivre», elles dépendent de la résistance de ces enroulements et de l'intensité du courant qui les traverse : avec une bonne approximation elles sont proportionnelles au carré de l'intensité.

 P_J = \sum_i R_i I_i^2 avec  R_i \, la résistance de l'enroulement i et  I_i \, l'intensité du courant qui le traverse.

Les pertes magnétiques 

Ces pertes dans le circuit magnétique, également appelées « pertes fer », dépendent de la fréquence et de la tension d'alimentation. À fréquence constante on peut les considérer comme proportionnelles au carré de la tension d'alimentation. Ces pertes ont deux origines physiques :

  • Les pertes par courants de Foucault. Elles sont minimisées par l'utilisation de tôles magnétiques vernies, donc isolées électriquement les unes des autres pour constituer le circuit magnétique, ce en opposition à un circuit massif.
  • Les pertes par hystérésis, minimisées par l'utilisation d'un matériau ferromagnétique doux.

Mesure des pertes 

La méthode des pertes séparées consiste à placer le transformateur dans deux états :

  • Un état pour lequel les pertes Joule sont élevées (fort courant) et les pertes magnétiques très faibles (faible tension). La mise en court-circuit du transformateur (essai en court-circuit) avec une alimentation en tension réduite permet de réaliser ces deux conditions. Les pertes du transformateur sont alors quasiment égales aux pertes Joule.
  • Un état pour lequel les pertes magnétiques sont élevées (forte tension) et ou les pertes Joule sont très faibles (faible courant). Le fonctionnement à vide (essai à vide), c’est-à-dire sans récepteur relié au secondaire, correspond à ce cas. La puissance consommée au primaire du transformateur est alors quasiment égale aux pertes magnétiques.

On dit que l'on a deux états qui permettent « une séparation » des pertes d'où l'expression « méthode des pertes séparées ». Elles ont également l'avantage de permettre la mesure du rendement avec une consommation de puissance réduite, sans faire l'essai en fonctionnement réel. Ceci est intéressant lorsqu'on réalise les tests d'un transformateur de forte puissance et que l'on ne dispose pas dans l'atelier de la puissance nécessaire pour l'alimenter à son régime nominal. Mis à part pour les plates-formes d'essai chez les constructeurs, cette méthode n'a donc pas grand intérêt pour uniquement connaître le rendement car, dans ce contexte, une mesure directe à puissance nominale (normale) est bien souvent suffisante.

En revanche, dans le cadre de l'électrotechnique théorique, elle est importante car elle permet de déterminer les éléments permettant de modéliser le transformateur.

Les différents types de transformateurs 

Ces distinctions sont souvent liées aux très nombreuses applications possibles des transformateurs.

Autotransformateur 

Symbole d'un autotransformateur.
1 indique le primaire ; 2 le secondaire.

Il s'agit d'un transformateur sans isolement entre le primaire et le secondaire.

Dans cette structure, le secondaire est une partie de l'enroulement primaire. Le courant alimentant le transformateur parcourt le primaire en totalité et une dérivation à un point donné de celui-ci détermine la sortie du secondaire. Le rapport entre la tension d'entrée et la tension de sortie est identique à celui du type isolé.

À rendement égal, un autotransformateur occupe moins de place qu'un transformateur ; cela est dû au fait qu'il n'y a qu'un seul bobinage, et que la partie commune du bobinage unique est parcourue par la somme des courants primaire et secondaire. L'autotransformateur n'est intéressant que lorsque les tensions d'entrée et de sortie sont du même ordre de grandeur : par exemple, 230V/115V. Une de ses principales applications est pour utiliser dans un pays un matériel électronique prévu pour un pays où la tension du secteur est différente (États-Unis, Japon...). Il présente cependant l'inconvénient de ne pas présenter d'isolation galvanique entre le primaire et le secondaire (c’est-à-dire que le primaire et le secondaire sont directement connectés), ce qui peut présenter des risques du point de vue de la sécurité des personnes.

En France, l'autotransformateur est systématiquement utilisé pour le raccordement entre le réseau 225kV et 400kV.

Transformateur variable - variac - alternostat 

Il s'agit d'une variété d'autotransformateur, puisqu'il ne comporte qu'un seul bobinage. La dérivation de sortie du secondaire peut se déplacer grâce à un contact glissant sur les spires du primaire.

Transformateur d'isolement 

Le transformateur d'isolement est uniquement destiné à créer un isolement électrique entre plusieurs circuits pour des raisons bien souvent de sécurité ou de résolution de problèmes techniques. Tous les transformateurs à enroulement primaire isolé du(des) secondaire(s) devraient être considérés comme des transformateurs d'isolement ; toutefois, en pratique, ce nom désigne des transformateurs dont la tension de sortie a la même valeur efficace que celle de l'entrée.

Le transformateur d'isolement comporte deux enroulements presque identiques au primaire et au secondaire :

  • le nombre de spires du secondaire est souvent très légèrement supérieur au nombre de spires du primaire afin de compenser la faible chute de tension en fonctionnement,
  • les sections de fil au primaire et au secondaire sont identiques car l'intensité des courants est la même.

Ils sont, par exemple, largement utilisés dans les blocs opératoires : chaque salle du bloc est équipée de son propre transformateur d'isolement, pour éviter qu'un défaut qui y apparaîtrait n'engendre des dysfonctionnements dans une autre salle.

Un autre intérêt est de pouvoir changer de régime de neutre (cas d'utilisation de matériel informatique et/ou d'équipements électroniques sensibles dans une installation IT).

Transformateur d'impédance 

Le transformateur est toujours un transformateur d'impédance, mais les électroniciens donnent ce nom aux transformateurs qui ne sont pas utilisés dans des circuits d'alimentation.

Le transformateur d'impédance est principalement destiné à adapter l'impédance de sortie d'un amplificateur à sa charge.

  • Ce genre de transformateur était en particulier employé dans la restitution sonore, pour adapter la sortie d'un amplificateur audio à lampes (haute impédance), avec les haut-parleurs destinés à la restitution du son et caractérisés par une impédance basse.
  • En électronique audio professionnelle, on utilise toujours des transformateurs pour les entrées et sorties d'appareils haut de gamme, ou bien dans la fabrication de « Di-box » ou boîte de direct. Le transformateur est alors utilisé, non seulement pour adapter l'impédance et le niveau de sortie des appareils (synthétiseurs, basse électrique, etc.) aux entrées micro de la console de mixage mais en outre pour symétriser la sortie des appareils connectés.
  • En technique des hautes fréquences, on utilise également des transformateurs dont le circuit magnétique est en ferrite ou sans circuit magnétique (aussi appelé transformateur sans noyau) pour adapter les impédances de sortie d'un amplificateur, d'une ligne de transmission et d'une antenne. En effet, pour un transfert optimal de puissance de l'amplificateur vers l'antenne, il faut que le taux d'ondes stationnaires (TOS) soit égal à 1.

De tels montages présentent en outre l'avantage de rendre les appareils connectés beaucoup plus résistants aux perturbations électromagnétiques par une augmentation significative du CMRR (Common Mode Rejection Ratio) ou taux de réjection du mode commun.

Transformateur de mesure 

Article détaillé : Transformateur de mesure .

Les transformateurs de mesure font l'interface entre le réseau électrique et un appareil de mesure. La puissance disponible au secondaire est définie en fonction des besoins de l'appareil de mesure.

Transformateur d'intensité 

Article détaillé : Transformateur d'intensité .

Ce type de transformateur, appelé aussi transformateur de courant, est dédié à l'adaptation des courants mis en jeu dans des circuits différents mais fonctionnellement interdépendants.

Un tel transformateur autorise la mesure des courants alternatifs élevés. Il possède une spire au primaire, et plusieurs spires secondaires : le rapport de transformation permet l'usage d'un ampèremètre classique pour mesurer l'intensité au secondaire, image de l'intensité au primaire pouvant atteindre plusieurs kiloampères (kA).

Transformateur de tension

Article détaillé : Transformateur de tension.

Ce transformateur est l'un des moyens pour mesurer des tensions alternatives élevées. Il s'agit d'un transformateur qui a la particularité d'avoir un rapport de transformation étalonné avec précision, mais prévu pour ne délivrer qu'une très faible charge au secondaire, correspondant à un voltmètre. Le rapport de transformation permet de mesurer des tensions primaires s'exprimant en kilovolts (kV). On le rencontre en HTA et HTB. D'autres technologies existent, comme celle du diviseur capacitif.

Transformateur haute fréquence

Circuit magnétique des transformateurs HF [

Les pertes par courants de Foucault au sein du circuit magnétique sont directement proportionnelles au carré de la fréquence mais inversement proportionnelles à la résistivité du matériau qui le constitue. Afin de limiter ces pertes, le circuit magnétique des transformateurs HF est réalisé à l'aide de matériaux ferromagnétiques isolants :

  • les ferrites douces : oxydes mixtes de fer et de cuivre ou de zinc ;
  • les matériaux nanocristallins.

Transformateur d'impulsions 

Ce type de transformateur est utilisé pour la commande des thyristors, triacs et des transistors. Il présente, par rapport à l’opto-coupleur, les avantages suivants : fonctionnement possible à fréquence élevée, simplification du montage, possibilité de fournir un courant important, bonne tenue en tension.

Transformateur triphasé 

Justification 

Dans les réseaux électriques triphasés, on pourrait parfaitement envisager d'utiliser 3 transformateurs, un par phase. Dans la pratique, l'utilisation de transformateurs triphasés (un seul appareil regroupe les 3 phases) est généralisée : cette solution permet la conception de transformateurs bien moins coûteux, avec en particulier des économies au niveau du circuit magnétique. Les transformateurs monophasés ne sont en fait guère utilisés, sauf pour de très grosses puissances apparentes (typiquement supérieures à 500 MVA), où le transport d'un gros transformateur triphasé est problématique et incite à l'utilisation de 3 unités physiquement indépendantes.

Couplages existants 

Pour un transformateur triphasé, il existe 3 types de couplage d’enroulement :

  • Le couplage étoile, défini par la lettre Y.
  • Le couplage triangle, défini par la lettre D ou Δ.
  • Le couplage zig-zag, défini par la lettre Z.

Liste des couplages possibles : Yy0, Dd0, Dz0, Yd1, Dy1, Yz1, Yd5, Dy5, Yz5, Yd6, Dd6, dz6
La majuscule est toujours pour la tension la plus forte.

Indice de couplage 

C'est la caractéristique d'un transformateur triphasé indiquant le type de couplage réalisé au primaire et au secondaire ainsi que le déphasage entre le système de tensions primaires et le système de tensions secondaires. Les systèmes triphasés de tension sont : « triangle » (D ou d) et « étoile » (Y ou y). La première lettre de l'indice de couplage est toujours en majuscule et indique le système triphasé à tension la plus élevée ; la deuxième lettre est en minuscule et indique le système à tension la plus basse. Dans le système « étoile », le « neutre » (point central de l'étoile) peut être sorti au bornier du transformateur : ceci est indiqué par la présence de la lettre N (ou n) dans l'indice de couplage. Il existe également le couplage zig-zag (z), utilisé majoritairement au secondaire ; il possède un neutre. Ce couplage permet, lors de la perte d'une phase au primaire, d'avoir au secondaire une tension pratiquement identique sur les trois phases. Enfin, l'indice de couplage est complété par un « indice horaire » qui donne, par pas de 30°, le déphasage horaire en 12es de tour (comme sur une montre) entre le primaire et le secondaire du transformateur (ex. : 11 = 11×30° = 330° en sens horaire ou 30° en sens anti-horaire).

Par exemple, un indice de couplage « Dyn11 » définit donc un transformateur dont :

  • le système triphasé de tension élevé est en « triangle » ;
  • le système triphasé de tension basse est en « étoile » avec neutre sorti (indiqué par le « n ») ;
  • le décalage entre les deux systèmes est de 330° (= – 30° ou bien 11×30°).

Les couplages les plus utilisés sont : Yyn0, Yyn6, Yzn5, Yzn11, Dyn5, Dyn11.

Choix de couplage 

Un couplage triangle est utilisé pour connecter le bobinage d'un moteur car il ne nécessite pas de neutre. Il permet la connection d'une charge monophasée à un système triphasé. Il est très utilisé dans la distribution de l'électricité.

Un couplage étoile permet d'avoir accès à deux tensions différentes : la tension ligne à ligne et la tension ligne à neutre. Il est très utilisé dans le transport de l'électricité.

Un transformateur avec un couplage zig-zag peut être utilisé pour les mises à la terre.

Transformateur diphasé-triphasé 

Article détaillé : Biphasé#Diphasé.

Transformateurs de Scott 

Diagramme des transformateurs de Scott

Le montage de Scott permet de transformer des tensions triphasées en diphasées et vice versa. Il trouve son application en électronique mais aussi en production, distribution et transmission d'électricité où le diphasé peut être encore utilisé. Le montage de Scott se réalise grâce à deux transformateurs. Le premier transformateur a les bornes de son primaire connectées à deux phases du triphasé. Le second transformateur est connecté entre la prise centrale du premier transformateur et la phase restante du triphasé. Le rapport de bobinage du premier transformateur sera égal à 1 alors que pour le second il sera égal à \frac{\sqrt{3}}{{2}} ce qui équivaut à 0,866 environ. Le secondaire des deux transformateurs sera de tension égale en norme et avec un déphasage de 90 degrés.

[Dérouler]



**********************************************
Par Franck - Publié dans : Inventions
Ecrire un commentaire - Voir les 1 commentaires
Dimanche 17 janvier 7 17 /01 /Jan 11:59

Théodolite

Théodolite

Un théodolite est un instrument de géodésie complété d’un instrument d’optique, mesurant des angles dans les deux plans horizontal et vertical afin de déterminer une direction. Il est utilisé pour réaliser les mesures d’une triangulation : mesure des angles d’un triangle.

C'est un instrument essentiel en topographie et en ingénierie.


Étymologie 

Théodolite Maubant

Un théodolite a d’abord désigné un instrument d’arpentage (1704). Le mot pourrait avoir été emprunté au latin scientifique theodolitus. L’instrument aurait été inventé en 1571 par un anglais, Thomas Digges qui l’aurait nommé ainsi. En anglais, l’emploi du terme theodolite est attesté en 1607.

L’étymologie est incertaine. Le theos signifiant « dieu » n’aide pas plus que le dêlos signifiant « visible ».

Description 

Les axes et les cercles gradués d’un théodolite.

Un théodolite est une lunette montée sur les deux axes vertical et horizontal. Chacun des axes est équipé d’un cercle gradué permettant les lectures des angles.

Le théodolite se pose sur un support et doit se caler sur le plan horizontal ; il est souvent placé sur un trépied, et à la verticale exacte d’un point connu en coordonnées, à l’aide d’un fil à plomb et d’un niveau à bulle sphérique, et sa base doit être parfaitement horizontale (utilisation d’une nivelle torique, ainsi que d’une nivelle sphérique). L’ensemble de cette phase d’utilisation se nomme la « mise en station ».

Le théodolite fait partie de la famille des instruments de mesure d’angles.

En astronomie, le théodolite sert à déterminer l’azimut par rapport au pôle céleste, ou la déclinaison où la hauteur apparente d’un corps céleste par rapport à l’horizon.

En géodésie, il sert à déterminer les angles formés par 3 sommets de montagne par exemple.

En topographie, il est utilisé dans les mesures d’un levé du territoire (levé topographique).

En archéologie, lors de fouilles, il est utilisé comme instrument de mesure de points spécifiques du relief, utilisés ensuite dans la reconstitution du site en trois dimensions.

Les instruments servant seulement aux mesures des angles horizontaux sont des goniomètres, ceux servant seulement à la mesure des angles verticaux sont des éclimètres et ceux permettant à la fois la mesure des angles horizontaux et des angles verticaux sont des théodolites.

Le théodolite peut être associé à différents instruments permettant par exemple la mesure des distances, on parle alors de tachéomètre, ou la saisie automatique des mesures, on parle alors de station totale.

Emploi du théodolite en topographie 

Éclimètre (XIXe siècle)

Le théodolite est en gros un rapporteur perfectionné, qui permet de relever l’angle entre deux points. On s’en sert pour des travaux de topographie. En fait, ce qu’on mesure n’est pas directement l’angle entre deux repères visibles (signaux sur une montagne, clocher…), mais entre la verticale de ces signaux, c’est-à-dire qu’on fait abstraction de la hauteur à laquelle les repères sont visibles, pour n’en retenir que le gisement (les verticaux des signaux visibles). On cale donc le théodolite à l’horizontale, et les angles ne sont mesurés que dans le plan horizontal, avec une petite lunette de visée qui peut pivoter verticalement, pour viser en hauteur.

Pour améliorer la précision des relevés dans un triangle ABC, on mesure en fait les trois angles en A, B, et C. Ces mesures sont redondantes, la somme des angles devant être 180°. En fait, on trouve toujours une petite différence dans la mesure : on considère que cette différence vient d’erreurs aléatoires, et on corrige les relevés en soustrayant 1/3 de la différence à chacune des valeurs. Pour les relevés à petite distance, la géométrie est pratiquement plane, mais à grande distance et avec un relevé de précision que permet le théodolite, la courbure de la Terre se fait sentir : la somme des angles d’un triangle ne fait plus 180°, mais dépend aussi de la surface du triangle inscrit. Dans les travaux de triangulation à longue distance, par exemple pour mesurer le méridien terrestre, on est donc obligé de tenir compte de cette correction (calcul en trigonométrie sphérique) avant de corriger les relevés, qui sinon seraient systématiquement faussés.

Les conditions de bonne visibilité et le relief permettent en France de travailler sur des visées de 40 à 50 kilomètres en plaine, un peu plus sur des points élevés isolés. Les angles sont lus, avec les meilleurs théodolites, avec une précision de l’ordre du décimilligrade ; on fait les observations et les calculs avec un chiffre de plus pour ne pas dégrader la précision avec des erreurs d’arrondi. L’excès sphérique d’un polygone est environ de 1,6 dmgr pour 100 km² de surface. Pour un triangle de 40 km de côtés, il peut atteindre 14 dmgr, ce qui est loin d’être négligeable (un décimilligrade est l’angle sous lequel, à 40 km, on verrait un objet d’environ 6 centimètres - d'où une erreur pouvant atteindre près de 84 cm).

 

 



****************************************************

 

Par Franck - Publié dans : Inventions
Ecrire un commentaire - Voir les 0 commentaires
Lundi 11 janvier 1 11 /01 /Jan 15:27

Nikola Tesla


Nikola Tesla
Portrait de Nikola Tesla.
Portrait de Nikola Tesla.

Naissance 10 juillet 1856
Smiljan, Empire d'Autriche
Décès 7 janvier 1943
New York, États-Unis
Nationalité américain d’origine serbe
Pays d’accueil États-Unis
Profession(s) inventeur, ingénieur
Formation École polytechnique de Graz

Nikola Tesla (serbe cyrillique : Никола Тесла), né le 10 juillet 1856 à Smiljan, Empire d'Autriche (aujourd’hui en Croatie), et mort le 7 janvier 1943 à New York, États-Unis, d’origine serbe émigré aux États-Unis, est un inventeur et ingénieur, dans le domaine de l’électricité.

Il est souvent considéré comme l’un des plus grands scientifiques dans l’histoire de la technologie, pour avoir déposé plus de 700 brevets (qui sont pour la plupart attribués à Thomas Edison) traitant de nouvelles méthodes pour aborder la « conversion de l’énergie ». Tesla est donc reconnu comme l’un des ingénieurs les plus créatifs de la fin du XIXe siècle et du début du XXe siècle. Pour sa part, il préférait plutôt se définir comme un découvreur.

Ses théories, son intérêt et son travail le plus connu, sur l’énergie électrique, l’amèneront à élaborer le courant alternatif, dont il est l’un des pionniers. Tesla s’est beaucoup intéressé au monde moderne et à l’électricité qui était le noyau de ses inventions. Il a exploré de nombreuses questions dans divers domaines de la science et s’en est servi pour améliorer les conditions humaines en se fondant sur les principes de l’évolution de l’industrie moderne, tout en recherchant une compatibilité avec la nature.

Pourtant nombre de ses travaux sont encore aujourd’hui controversés. Parmi les gens qui s’intéressent à Tesla, beaucoup voient en lui le père des travaux contemporains High frequency active auroral research program (HAARP). Ces aspects encore mystérieux de la personnalité de Tesla (rayon de la mort) servent parfois de support à certaines recherches scientifiques (énergie du vide). Il aurait selon certains créé une voiture fonctionnant avec l’énergie du vide, qui serait alors captée via une antenne. Tesla a joué un rôle de pionnier dans de nombreux domaines, ce qui lui a valu d’être mal perçu par certains, pour qui l’énergie libre et gratuite pour tous représentait une menace pour leurs intérêts économiques et politiques[réf. nécessaire].

S

Biographie 

Enfance et études 

Milutin Tesla, père de Nikola Tesla
Statue de Tesla dans le village de Smiljan
Le certificat de naissance de Nikola Tesla

Nikola Tesla est né le 10 juillet 1856 à Smiljan, dans la Croatie militaire dépendant de l'Empire d'Autriche, situé aujourd'hui en Croatie. Il est l'avant dernier d'une famille de cinq enfants. Ses parents sont tous deux issus de familles serbes de religieux orthodoxes (tesla est un mot serbe qui signifie herminette). Le père de Nikola, Milutin Tesla, est le prêtre orthodoxe de Smiljan.

Dès son enfance, suite à divers évènements (notamment la mort de son frère aîné Danijel), il développe selon lui des aptitudes intellectuelles hors du commun, dont il témoigne dans son autobiographie comme une mémoire photographique, un génie inventif, ainsi qu'un don de visualisation lui rendant maquettes et schémas inutiles. À 17 ans, il commence à inventer et apparaît comme un autodidacte.

En 1875, il entre à l’école polytechnique de Graz, en Autriche, où il étudie les mathématiques, la physique et la mécanique. Une bourse lui est attribuée par l'administration des Confins militaires (Vojna Krajina), le mettant à l'abri des problèmes d'argent. Ceci ne l'empêche cependant pas de travailler avec acharnement pour assimiler le programme des deux premières années d'études en un an. L'année suivante, la suppression des Confins militaires retire toute aide financière à Tesla, hormis celle, très maigre, que peut lui apporter son père, ce qui ne lui permet pas d'achever sa seconde année d'études.

Après quelques années passées à chercher du travail, Nikola Tesla débute en tant qu'ingénieur en 1881, à Budapest, à l'Office central du télégraphe du gouvernement hongrois.

Il s'intéresse aussi à la mythologie hindoue, puis au sanskrit comme Oppenheimer.

Parcours professionnel 

  • En 1883, il travaille pour la société Edison de Paris où il achève de mettre au point le premier moteur à induction utilisant le courant alternatif. Personne en Europe ne s'intéressant à sa technologie, il accepte alors l’offre de Thomas Edison de venir travailler aux États-Unis.
  • En 1884, âgé de 28 ans, il débarque aux États-Unis, où Edison vient de créer le réseau électrique alimentant la ville de New York. Ce réseau, basé sur le courant continu, souffre de sérieux dysfonctionnements : accidents fréquents, pannes régulières, plusieurs incendies se déclenchent... De plus, cette électricité ne peut être acheminée sur une longue distance, elle nécessite une centrale tous les deux milles.
  • Tesla est partisan de l'adoption du courant alternatif, qui résoudrait tous ces problèmes, tandis qu'Edison, ardent défenseur du courant continu, y est totalement opposé. De ce fait et du fait des personnalités très narcissiques des deux hommes, une opposition farouche les divise, ce qui amène Tesla à démissionner.
  • Un groupe de financiers, conscients du potentiel économique, propose à Tesla de fonder sa propre société, la « Nikola Tesla Company », basée à New York. Malheureusement il se fait escroquer et se retrouve sans argent, les financiers ayant récupéré l'entreprise dans laquelle il avait investi ses économies.
  • En 1886, George Westinghouse s’intéresse de près au courant alternatif. En tant que concurrent direct d’Edison, il rêve d’approvisionner les États-Unis en électricité. Il embauche Tesla comme conseiller. Une lutte titanesque (surnommée la Guerre des courants) s’engage entre Westinghouse-Tesla et Edison, elle finit par tourner à l’avantage du couple Westinghouse-Tesla.
  • En 1893, Westinghouse annonce que sa compagnie vient d’obtenir le contrat d’installation de toute l’infrastructure électrique. On utilisera bientôt exclusivement le courant alternatif préconisé par Tesla.
  • Nikola Tesla rencontre Walter Russell aux États-Unis.

Inventions majeures 

Générateur de courant alternatif de Tesla
  • Il est le principal promoteur du transport de l'énergie électrique en courant alternatif.
  • En 1889 il s'intéresse à la haute fréquence et réalise un générateur fournissant une fréquence de 15 kHz.
  • Il expose en 1891, lors de démonstrations, sa lampe « haute fréquence » à pastille de carbone plus économique que nos tubes fluorescents actuels et dont le concept préfigure celui de l'accélérateur à particules ou celui du microscope électronique.
  • À partir de 1896, en parallèle de Branly, il effectue des expériences de télécommande. En se basant sur l'excitateur de Hertz, il met au point la bobine qui porte son nom et qui constitue un premier émetteur accordé à ondes amorties. Tesla définit les bases de la télé-automatique. Il conçoit qu’on puisse un jour commander des véhicules à des centaines de kilomètres sans qu’il y ait d’équipage, en utilisant la télégraphie sans fil. Il crée deux navires robots télécommandés dont un est submersible. Ses brevets de 1895 contiennent en réalité les spécifications d’un bateau torpille sans équipage muni de six torpilles de 4,20 mètres.
  • Expérimentation des gigantesques résonateurs à haute fréquence de 1899 à 1900 à Colorado Springs, en vue de la construction d'une tour de télécommunication à Wardenclyffe (Shoreham), Long Island.
  • Tesla a, en outre, écrit sa théorie sur les armes à énergie dirigée avant le début du XXe siècle, son fameux « Rayon de la mort ».

Distinctions 

  • Auteur de plus de 700 brevets dont beaucoup sont attribués à tort a T.Edison traitant de nouvelles méthodes pour aborder la conversion de l’énergie, récipiendaire de quatorze doctorats des universités du monde entier et maîtrisant 12 langues.
  • 6 novembre 1915, la une du New York Times annonce que les prochains lauréats du Prix Nobel de physique sont Edison et Tesla. Cette nouvelle provient de l’agence Reuters de Londres. Le 14 novembre, l’agence Reuters de Stockholm dément l’information, les lauréats seront William Henry Bragg et son fils William Lawrence Bragg pour la détermination des structures cristallines par les rayons X (diffraction). L’affaire restera un mystère.
  • En 1917, il reçoit la médaille Edison de l’American Institute of Electrical Engineers.
  • Il obtient la médaille John Scott en 1934, une récompense attribuée à des scientifiques depuis 1816. Marconi l’avait obtenu en 1931 et Edison en 1889 et 1929.
  • Son nom a été donné en 1956 à l’unité d’induction magnétique : le tesla.

Conflit sur l'héritage 

Après son décès, la famille de Nikola Tesla engagea avec l'administration américaine une longue procédure judiciaire, pour récupérer les documents de travail et les affaires personnelles de Tesla. Après un long procès, son neveu Sava Kosanović réussit à récupérer, en 1957, l'urne funéraire contenant les cendres de son oncle, ainsi qu'une partie de ses travaux. L'urne ainsi que les documents sont aujourd'hui dans le Musée Nikola Tesla à Belgrade en Serbie.

Le mythe 

  • Des légendes urbaines se sont développées autour du personnage, qui serait né par une nuit d’orage particulièrement fort, qui plus est dans l’Europe centrale (le pays des vampires), et/ou qui aurait été touché par la foudre, etc.
  • Le personnage de Tesla lui-même a inspiré les artistes : il apparaît dans le roman de science-fiction Le Prestige de Christopher Priest, sous les traits d’un scientifique qui aurait mis au point un système de téléportation. Sa rivalité avec Thomas Edison et ses expériences à Colorado Springs sont évoquées. Dans la version cinéma, réalisée par Christopher Nolan en 2006, le personnage de Tesla est incarné par David Bowie.
  • Il semblerait que la personnalité de Tesla ait marqué (consciemment ou non) l'écrivain H.P. Lovecraft, et ait inspiré le personnage éponyme de la nouvelle Nyarlathotep. Le personnage de Nyarlathotep est une figure majeure du Mythe de Cthulhu, un dieu chaotique complotant pour la destruction des humains, l'un de ses avatars étant un savant ambulant passant de ville en ville montrer des expériences en rapport avec l'électricité.
  • Il apparaît dans le roman de Paul Auster: Moon Palace, où l'un des personnages principaux, Thomas Effing, raconte l'avoir rencontré dans sa jeunesse.
  • Tesla est apparu comme l’un des premiers ennemis du super-héros Superman dans le rôle d’un savant fou utilisant un rayon de la mort. Dans la série TV Eureka, le lycée de la petite ville porte le nom de Tesla, et le rayon de la mort est souvent mentionné (principalement par Jack Carter) ou utilisé dans cette même série.
  • Dans le court-métrage Jack shows Megs his Tesla Coil, un segment de Coffee and Cigarettes de Jim Jarmusch, on voit Jack White montrer à Meg White une bobine de Tesla.
  • Un personnage du nom de Nikola Tesla apparaît de façon récurrente dans la série télévisée Sanctuary. Il y fait partie d’un groupe de scientifiques nommé « les Cinq », et deviendra un vampire.
  • Le personnage de Nikola Tesla est également utilisé pour un des épisodes de la série Détective Murdoch diffusé sur France 3 le 28 juin 2009.
  • Les bobines de Tesla envoient des décharges électriques aux attaquants dans les jeux Command & Conquer, Alerte Rouge et Defense Grid.
  • Le terme Tesla est largement utilisé dans la série de jeux video Fallout, armes & armures à énergies, livres (Nikola Tesla et vous)... Le jeu reprend largement le thème de l'énergie, citant le nom pour améliorer entre autres les capacités intellectuelle et scientifique du joueur.
  • Le groupe Orchestral Manoeuvres in the Dark le cite dans sa chanson Tesla girls.
  • Le rayon Tesla envoie des décharges électriques dans le jeu Return To Castle Wolfenstein.
  • Son nom est la marque d'une nouvelle firme automobile "Tesla" qui a présenté en 2008 sa première création "La Tesla Roadster" , basée sur la Lotus Elise et équipée d'un moteur électrique développant 248 ch et une autonomie de 325 km avec zéro émission de Co2 e le 0-100km/h en 4.8" .
  • Son nom est également employé dans le roman Hypérion de Dan Simmons. Il désigne un arbre électrique sacré.
  • Il est mentionné dans le film "K-20 l'homme aux 20 visages", de Shimako Sato, le personnage principal (K-20) volant, au début du film, une machine, permettant la transmission d'énergie sans fils, créé par Tesla.
  • Tous les ans, le jour de son anniversaire, Google rend hommage à Nikola Tesla en personnalisant en son honneur la page d'accueil de son moteur de recherche. D'autres scientifiques ont reçu l'hommage du célèbre moteur de recherche comme Léonard de Vinci, Thomas Edison, Hans Christian Ørsted,...
  • Le groupe des années '80 de glam rock : Tesla.


***********************************************
Par Franck - Publié dans : Inventions
Ecrire un commentaire - Voir les 0 commentaires
Dimanche 10 janvier 7 10 /01 /Jan 11:25

Projection cinématographique

Cinéma
Eight (film start) cropped2.jpg
 
 

 
 
 
 
Projecteur de salle Philips
Projecteur 35mm en marche dans une salle de cinéma

Cet article présente les techniques utilisées pour restituer un film, généralement dans une salle de cinéma, mais aussi pour des projections privées. Il traite principalement de la projection traditionnelle 35mm. Article connexe : Cinéma numérique

Le film de cinéma se présente sous la forme d'une pellicule sur laquelle sont imprimées des images ; cette pellicule est appelée « copie ». Le film vidéo se présente sous la forme d'une bande magnétique ou d'un support numérique (CD-ROM, DVD, disque dur...), qui comporte des images codées. Ces images sont projetées successivement à l'écran. Deux phénomènes donnent l'illusion de voir un déroulement continu :

  • la persistance rétinienne, qui masque les noirs entre les images ;
  • un effet psychologique, l'effet phi : le cerveau interprète la succession d'images proches comme étant une image unique qui change.

La grande majorité des salles utilisent le support pelliculaire, qui a l'inconvénient de se dégrader au fil des projections, et doit être retiré de temps en temps. Ce support a, en revanche, l'avantage d'être universellement répandu et normalisé.

Toutefois, dans l'idée de certains, notamment de George Lucas, l'avenir serait vers une projection vidéo « tout numérique » : l'exploitant recevrait un support numérique (ou alors téléchargerait le film), ce qui permettrait de réduire les coûts de production et distribution (suppression du coût du tirage et de la gestion logistique des copies), mais augmenterait le coût de projection (investissement dans un nouvel équipement évoluant régulièrement pour suivre les progrès techniques). À l'heure actuelle, peu de salles sont équipées d'un tel système.


La projection cinématographique 

Ce sont les techniques utilisées pour projeter les films sur pellicule dans les salles de cinéma (35 mm, 70 mm), et parfois à domicile (films 9,5 mm, 8 mm ou Super 8).

La pellicule 

Amorce de projection

La pellicule est composée d'un support et d'une émulsion appelée « gélatine ».

Support pelliculaire 

Bobines de 600 mètres (environ 20 minutes) conditionnées dans leur boîte

Les premières pellicules étaient en nitrate de cellulose, très inflammable dégageant des gaz toxiques en brûlant (voir par exemple le film Cinema Paradiso de Giuseppe Tornatore, 1989). On l'appelle pour cela le « film flamme ».

Le risque d'incendie était d'autant plus grand que les lanternes des projecteurs utilisaient un arc électrique à l'air, agissant comme une flamme nue. En raison de ce risque, il ne pouvait y avoir au maximum que 40 minutes de film en cabine, sous la forme de deux bobines, ou « galettes », de 20 minutes (soit 600 mètres). Il fallait donc deux projecteurs : pendant que la première galette était projetée, on chargeait la deuxième sur le projecteur. Puis, à la fin de cette galette, on lançait le second projecteur et on chargeait la troisième galette dans le premier projecteur. Ceci explique les deux marques (repères) que l'on voit encore parfois en haut à droite de l'image, en fin de galette (toutes les 20 minutes). Les supports de galette (carter) étaient fermés par des étouffoirs dont le but était d'empêcher la flamme, née au niveau du couloir de projection, de remonter vers les galettes.

Par ailleurs, ce support se décomposait dès sa fabrication et les signes pouvait apparaître très rapidement.

Enfin, le nitrate de cellulose subit un phénomène de retrait (rétrécissement).

On utilisa par la suite du triacétate de cellulose, dit « film de sécurité ». Ce support était peu inflammable, moins transparent, plus solide et vieillissait mieux. Il devint donc possible d'assembler toutes les bobines en une seule, et de ne plus utiliser qu'un seul projecteur. Cependant, le « syndrome du vinaigre », en fait la dépolymérisation de cette pellicule lorsqu'elle vieillit, montra que ce support avait une durée de vie assez limitée.

Depuis le milieu des années 1980, on a commencé à utiliser du polyester. Ce support est plus transparent et plus résistant — trop, disent certains projectionnistes : en effet, en cas de problème, le film ne casse plus ce qui peut provoquer des dégâts à l'appareil. Depuis les années 1990, on utilise aussi un support en estar.

Le film est toujours conditionné en galettes de 20 minutes, ce qui permet de faciliter le transport ; les galettes sont empilées dans un sac ou dans une boîte qu'on appelle « marmotte ».

Gélatine 

La gélatine est l'émulsion qui contient les pigments. C'est la coloration de cette gélatine qui forme l'image, le photogramme. Le côté support est brillant, le côté émulsion est mat. Lors du chargement, le côté émulsion se trouve du côté du projecteur, le côté support est vers la salle.

Une rayure de l'émulsion se traduit par un enlèvement de couleur. Comme l'émulsion est en plusieurs couches, une rayure superficielle donnera un trait vert à l'écran (enlèvement de la couche rouge), une rayure plus profonde un trait jaune (enlèvement de la couche bleue), et une rayure très profonde donnera un trait blanc (enlèvement total de l'émulsion). Une rayure côté support donne des traits noirs.

Procédés couleurs [

Différents procédés de reproduction de la couleur ont été utilisés, par exemple : Technicolor, Eastmancolor, Agfacolor et d'autres plus rares comme le Thomsoncolor.

Formats de pellicule et de projection 

Description d'un film 35 mm ; « côté projecteur » suppose un projecteur à chargement à droite (en regardant la salle), ce qui est le cas général.

La pellicule utilisée peut être de largeur de dimensions variables (8 mm, 9,5 mm, 16 mm, 35 mm, 70 mm) et supporte généralement la bande sonore. Le format 9,5 mm était un des premiers formats amateur qui est encore utilisé de façon confidentielle pour sa qualité d'image comparable au 16 mm.

Les deux formats les plus utilisés pur la projection professionnelle sont

  • le 35 mm : c'est le format professionnel le plus courant dans le cinéma de fiction de long métrage traditionnel en projection sphérique ou anamorphique (CinemaScope) ;
  • le 70 mm : synonyme de haute qualité d'image, sa lourdeur d'exploitation n'a pas tenu face à l'amélioration des pellicules 35 mm dans les années 1990. Seules certaines salles sont aujourd'hui équipées de projecteurs 70 mm.

Certains films sont disponibles en 16 mm, souvent des productions à petit budget ou semi-professionnelles.

Le son 

Article détaillé : Bande son.

La première sonorisation utilisait un gramophone actionné à la main, ce qui posait des problèmes de synchronisation (variation de la vitesse du gramophone et problème d'amputation des images abîmées du film).

Le son fut très vite inscrit de manière optique sur le bord de la pellicule. Avec ce système, une lampe éclaire cette piste optique ; l'intensité de la lumière traversant le film est mesurée par une cellule photoréceptrice qui transforme cette intensité en un signal électrique, signal qui est ensuite envoyé vers une chaîne d'amplification classique.

Puis sont apparus la piste magnétique sur les films 70 mm, d'un principe similaire à la cassette audio, et enfin le son numérique, avec plusieurs méthodes : soit le son (les bits) est encodé sur la pellicule à côté de l'image, soit le film est accompagné d'un CD-Rom contenant le son et qui est synchronisé, via un time code sur la pellicule, avec le défilement du film.

La lanterne et l'objectif 

Lanterne

La lumière est produite par une lanterne. La lanterne comporte une lampe à arc, alimentée en courant continu, un miroir elliptique et un filtre dichroïque, chargé de laisser passer la lumière tout en filtrant la chaleur (rayons infrarouges produits par la lampe).

Projecteur Ernemann avec une optique Zeiss Ikon IX, lanterne ouverte

La lampe est constituée de deux électrodes pointues, légèrement écartées. La lumière est produite par un arc électrique entre ces électrodes. Initialement, les électrodes étaient en charbon et sous air ; elles se consumaient au fur et à mesure et le projectionniste devait régler la position des charbons plusieurs fois durant la projection, et les changer fréquemment. Il y a eu ensuite un système d'avancement automatique (vis sans fin). Maintenant, les électrodes sont métalliques, et enfermées dans une ampoule en quartz remplie de gaz xénon sous pression . La puissance des lanternes va de 900 W à 10 kW pour les très grandes salles.

L'amorçage de l'arc provoque une onde électromagnétique qui provoque des parasites dans le système de son (qui diffuse de la musique avant la projection) ; celui-ci est donc parfois coupé brièvement à l'allumage.

Le miroir est un ellipsoïde de révolution tronqué. L'arc est placé au foyer de l'ellipse, la lumière converge donc vers l'autre foyer (une propriété des miroirs elliptiques). Le film est mis de sorte que la lumière éclaire toute l'image, mais ne déborde pas, afin de récupérer le maximum de luminosité. On utilise soit des miroirs dichroïques, ou « miroirs froids », qui laissent passer les rayons infrarouges et ne réfléchissent que la lumière, soit des miroirs entièrement réfléchissants, dits « miroirs chauds » ; ceux-ci sont refroidis par une circulation d'eau.

Le second foyer de l'ellipse correspond au centre optique de l'objectif. Le film est placé dans le plan focal de l'objectif, afin d'avoir une image nette à l'écran. La mise au point consiste à déplacer l'objectif afin de faire coïncider le plan focal avec le film.

Certains projecteurs fonctionnent à 25 images/seconde avec une lampe à courant alternatif (lampe HMI), avec des inconvénients pour les films tournés à 24 i/s : son légèrement plus aigu, cadence légèrement plus rapide et durée du film réduite de 4 %. Cependant, ce dispositif est rare, les lampes HMI étant plutôt utilisées dans les projecteurs vidéo à matrice LCD.

Avancement du film et projection 

Les deux types d'obturateur

Le défilement des images devant l'objectif est saccadé. Ce mouvement saccadé est produit à partir d'un mouvement de rotation continu (simple moteur électrique), transformé par un dispositif appelé croix de Malte, ou par un système à griffe (en général sur des projecteurs 16 mm) plus dommageable pour la pellicule.

Lorsque l'image avance, le faisceau lumineux est intercepté par un obturateur, afin d'éviter le phénomène de « filage ». L'obturateur est un dispositif tournant en forme d'hélice ou de cône tronqué et percé, laissant passer la lumière par intermittence. Lorsque l'image est fixe, la projection se fait en deux fois, le faisceau lumineux est interrompu au milieu de la projection, afin d'éviter un phénomène de scintillation, désagréable à la vue. Il y a donc 24 images différentes par seconde, mais 48 projections par seconde.

Le film, déroulé depuis la bobine de départ, arrive par le haut du projecteur, passe dans le couloir de projection, ressort par le bas et vient s'enrouler sur la bobine de réception. Le tirage du film hors de la bobine de départ et son enroulement sur la bobine réceptrice est, lui, continu, ceci pour deux raisons :

  • afin de ne pas risquer de casser le film ;
  • la lecture du son nécessite un défilement continu.

Il y a donc, avant et après le couloir de projection, une boucle d'amortissement. Lorsque l'image est immobile devant la fenêtre de projection (les 3/4 du temps), la boucle du haut s'agrandit et celle du bas se raccourcit. Lorsque l'image avance (1/4 du temps), la boucle du haut se raccourcit et celle du bas s'agrandit.

Cinema projection 4 temps.png

La projection se fait donc en quatre temps :

  1. 1re projection de l'image ;
  2. obturation pour éviter l'effet de scintillement, le film reste fixe devant le couloir de projection ; la boucle du haut s'agrandit, celle du bas diminue ;
  3. 2e projection de l'image ; la boucle du haut s'agrandit, celle du bas diminue ;
  4. avancement du film devant la fenêtre de projection ; l'obturateur est fermé, la boucle du haut diminue, celle du bas s'agrandit.

À la place d'une croix de Malte, certains appareils de projection (et de prise de vues) utilisent une double came de Trézel pour l'entraînement saccadé du film. Ce mécanisme, plus difficile à réaliser, plus volumineux mais aussi plus souple et plus silencieux que la croix de Malte, est également plus coûteux.

La projection vidéo 

Article détaillé : Vidéoprojecteur.

Contrairement au cinéma, l'image vidéo est sous la forme d'un signal électrique, qu'il soit analogique ou numérique. Il parvient au projecteur par onde hertzienne (télévision, antenne satellite), par câble, ou bien est sur support magnétique (magnétoscope, disque dur d'ordinateur), ou optique (CD-ROM, DVD).

Pour restituer ce signal, il faut une chaîne comparable à celle utilisée pour l'affichage sur un téléviseur (tuner hertzien, démodulateur, ou lecteur local).

Projecteur tri-tube 

Les projecteurs tri-tube ont été très utilisés jusqu'à la fin des années 1990 où ils ont été remplacés par les projecteurs monotube. Mais ils sont encore utilisés dans des cas très particuliers où il est nécessaire de projeter sur une sphère par exemple : l'image analogique peut alors être ajustée à la demande, ce qui est délicat, sinon impossible, à réaliser avec des projecteurs LCD.

Il s'agit en fait de trois tubes cathodiques (trois écrans de télévisions) placées devant des lentilles : le signal étant décomposé en trois composantes rouge, vert et bleu (RVB), chaque télévision n'affiche qu'une seule composante. On a en fait trois télévisions noir et blanc placées derrière un filtre ; la lentille focalise la lumière émise par les tubes cathodiques sur l'écran de projection.

L'image doit être suffisamment lumineuse, la tension d'accélération est donc plus élevée que pour une télévision classique, de l'ordre de 30 à 50 000 volts.

Lors de l'installation du projecteur, il faut effectuer plusieurs réglages ; pour cela, chaque tube affiche une grille (mire) :

  • faire la mise au point pour chacune des trois lentilles ;
  • corriger la déformation des grilles, due aux effets de bord et à l'inclinaison du faisceau ;
  • s'assurer que les trois faisceaux convergent sur l'écran (superposer les grilles pour former une grille blanche)

Projecteur monotube 

Les projecteurs monotube sont apparu au milieu des années 1990. Il s'agit en fait de trois écrans à cristaux liquides, un par couleur primaire (rouge, vert, bleu), éclairés en transparence par une puissante lampe aux halogénures métalliques (lampe HMI).

Les trois faisceaux colorés se superposent dans le projecteur, et ce faisceau est ensuite projeté de manière classique par un objectif.

Ces appareils se dérèglent très peu, le réalignement des écrans nécessite le démontage de l'appareil.

Mur d'écrans 

Une troisième solution de projection vidéo consiste à avoir un mur d'écran. Il peut s'agir d'écrans cathodique ou d'écrans à cristaux liquide ; chaque écran affiche une portion de l'image.

Le cinéma numérique 

La projection numérique pour les films de cinéma est appelée à se substituer, à terme, à la projection traditionnelle de films 35 mm. L'abaissement progressif du coût des projecteurs numériques rend possible et envisageable le déploiement intensif d'un parc de dernière génération.

La projection numérique est, en fait, une projection vidéo.

L'image vidéo classique en définition standard est décomposée en 625 lignes entrelacées (système PAL ou Secam). Le format haute définition le plus courant est constitué par une matrice de 1 920 pixels par 1 080 lignes. En 2K, elle est de 2 048 pixels par 1 080 lignes et 4 096 pixels par 2 160 lignes pour le 4K. Le format haute définition actuellement exploité reste entrelacé et est couramment identifié comme 1080i (i pour interlaced, entrelacé).

La projection en films 35 mm se fait à habituellement à 24 images/sec. La vidéo en Europe étant quant à elle calée à 25 images par seconde, soit 50 trames (une image étant constituée de deux trames entrelacées). La projection numérique diffère donc notamment de la projection vidéo par la forme de cette projection qui s'effectuera en progressif (25P ou 24P) et non plus entrelacé.

En ce qui concerne le format d'encodage des films numériques, alors que les DVD et HD DVD utilisent des formats vidéo tels que le MPEG2 et le MPEG4, les salles de cinéma numérique à la norme DC utilisent le format MJPEG2000 dans lequel chaque image est codée séparément des autres, c'est-à-dire qu'un film de 90 minutes est constitué de 135 000 images au format JPEG2000, ce qui garantit la qualité de la projection, notamment la fluidité des mouvements, aux dépens de l'efficacité de la compression (un film au format MJPEG 2000 pèse environ 100 Go contre 10 Go au format MPEG4).

On distingue le « d-cinema », lorsque le projecteur numérique a une résolution supérieure ou égale au 2K, du « e-cinema », lorsque la résolution est inférieure.

La projection numérique apporte une solution radicale face à la dégradation du support : en effet, les pellicules accumulent de la poussière, génératrices de rayures (les « bonnes » salles sont équipées de système de dépoussiérage), et les manipulations provoquent à terme des dégradations de l'image, notamment visibles aux transitions entre les bobines. Par ailleurs, des accidents de projection peuvent provoquer des rayures ou des ruptures de films (et donc une image présentant une zébrure ou bien la suppression d'une ou plusieurs images). Une bonne copie 35 mm (tirage neuf, ou tirage récent n'ayant pas connu d'accident de projection), et a fortiori 70 mm, supplantera encore pour quelque temps une projection numérique moyenne : en effet, la taille des grains de l'émulsion (équivalent des pixels numériques) est de l'ordre du micromètre, soit pour une pellicule 35 mm une résolution équivalente à 8 700 points par 6 400 lignes, soit 8K. Même les projections numériques réalisées à Cannes (La Guerre des étoiles par exemple) ne sont pas à même de rivaliser.

La projection numérique reste un grand défi pour les distributeurs et les exploitants : en effet, la diffusion numérique permet d'envisager une réduction importante des coûts de distribution (coûts des copies et logistique) mais l'absence de standardisation quant aux serveurs et le risque de piratage (sans parler du coût des systèmes) rendent la mutation délicate.

Par ailleurs, cela se traduit par un report du coût vers l'exploitant : le numérique permet une baisse des coûts de production (dérushage, trucage, montage se font sans support matériel) et de distribution (plus de tirage de copies), mais

  • l'exploitant doit s'équiper de matériel neuf ;
  • le matériel est amené à évoluer, donc un renouvellement du parc matériel est à prévoir régulièrement alors qu'un projecteur bien entretenu peut durer plus de 30 ans en gardant la même qualité de projection ;
  • le projectionniste ne peut plus effectuer lui-même la maintenance de ses appareils, il faut donc un contrat de maintenance plus contraignant ;
  • et l'exploitant supporte le coût d'acheminement (par exemple téléchargement).

C'est par ailleurs une tendance générale (par exemple, les éditeurs de logiciels reportent les coût d'impression du manuel vers l'utilisateur en fournissant un fichier PDF au lieu d'un livre).

Néanmoins, ces nouveaux systèmes posent un problème juridique en termes de droits d'exploitation et d'unicité du support qui ne sont pas encore résolus aujourd'hui. De même, il n'y a pas de consensus des exploitants sur un standard mais plusieurs technologies concurrentes sur le marché à l'heure actuelle.

 

 



*************************************************

 

Par Franck - Publié dans : Inventions
Ecrire un commentaire - Voir les 0 commentaires
Dimanche 10 janvier 7 10 /01 /Jan 10:26

Microscope optique


Un microscope optique de base.

Le microscope optique est un instrument d'optique muni d'un objectif et d'un oculaire qui permet de grossir l'image d'un objet de petites dimensions (ce qui caractérise son grossissement) et de séparer les détails de cette image (et son pouvoir de résolution) afin qu'il soit observable par l'œil humain. Il est utilisé en biologie, pour observer les cellules, les tissus, en pétrographie pour reconnaître les roches, en métallurgie et en métallographie pour examiner la structure d'un métal ou d'un alliage.

Il ne faut pas le confondre avec la loupe binoculaire qui n'exige pas des échantillons plats de faible épaisseur, ou réfléchissants, et permet d'observer des pièces naturelles sans préparation en grossissant l'image d'un facteur peu élevé, mais en gardant une vision stéréoscopique propice à l'examen macroscopique révélateur de grains, de criques, de fissures, etc.


Histoire

Il est difficile de dire qui a inventé le microscope composé. On dit souvent que l'opticien hollandais Hans Janssen et son fils Zacharias Janssen fabriquèrent le premier microscope en 1590, mais ceci provient d'une déclaration de Zacharias Janssen lui-même au milieu du XVIIe siècle. La date annoncée est assez improbable étant donné qu'il a été montré que Zacharias Janssen est né vers 1590.

Un autre favori au titre d'inventeur du microscope est Galilée. Il a développé un occhiolino, un microscope composé d'une lentille convexe et d'une autre concave en 1609.

Un dessin par Francesco Stelluti de trois abeilles figure sur le sceau du pape Urbain VIII (1623-1644) et passe pour la première image de microscopie publiée. Christiaan Huygens, un autre Hollandais, a développé à la fin du XVIIe siècle un oculaire simple à deux lentilles corrigé des aberrations chromatiques, ce qui fut un grand pas en avant dans le développement du microscope. L'oculaire de Huygens est toujours fabriqué aujourd'hui, mais souffre d'un champ assez réduit et d'autres problèmes mineurs.

On attribue en général à Antoni van Leeuwenhoek (1632-1723) le fait d'avoir attiré l'attention des biologistes sur les utilisations du microscope, même si des loupes ordinaires étaient déjà fabriquées et utilisées au XVIe siècle. Les microscopes artisanaux de Van Leeuwenhoek étaient des instruments simples et de taille réduite comprenant une lentille unique mais forte. En comparaison, les systèmes à plusieurs lentilles restaient difficiles à mettre au point et il fallut pas moins de 150 ans de développement des optiques avant que le microscope composé puisse livrer une qualité d'image équivalente à celle des microscopes simples de Van Leeuwenhoek. Néanmoins, et malgré de nombreuses revendications, on ne peut pas considérer Van Leeunwenhoek comme l'inventeur du microscope composé.

Première approche 

Principe du microscope optique de base 

Principe d'un microscope simplifié.

Le microscope optique se base sur les lentilles pour obtenir une image agrandie de l'échantillon à observer.

L'objet à observer est placé devant la première lentille appelée « objectif ». Si l'objet est au-delà de la distance focale, cela forme une image réelle inversée et de taille différente ; l'image est plus grande que l'objet si celui-ci est situé à une distance inférieure au double de la distance focale de l'objectif.

La deuxième lentille est l'oculaire : elle est positionnée de sorte que l'image soit dans son plan focal. Ainsi, l'œil observe une image « à l'infini », donc en relâchant les muscles chargés de l'accommodation, ce qui représente un meilleur confort visuel.

Il s'agit d'un système centré dioptrique, composé en partie de doublets pour en corriger certaines des aberrations optiques.

A contrario d'autres systèmes optiques qui sont définis par leur grossissement optique (télescope) ou leur grandissement (appareil photographique), le terme approprié, pour le microscope, est sa puissance, rapport de l'angle, sous lequel est vu l'objet à travers l'instrument, à la longueur de cet objet.

La technique d'illumination la plus utilisée en microscopie à champ large classique est l'illumination de Köhler, qui garantit une qualité d'image optimale.

Constitution du microscope 

Schéma d'un microscope optique.

De bas en haut :

  • miroir : sert à réfléchir la lumière ambiante pour éclairer l'échantillon par en dessous, dans le cas d'un échantillon transparent (par exemple une lame mince en biologie ou en géologie, ou un liquide) ;
  • source de lumière artificielle de meilleure température de couleur et de stabilité et par l'usage d'un condenseur qui permet à cette lumière de remplir d'une façon homogène et régulière le champ observé, et surtout de ne pas faire voir, par son réglage adéquat, les détails mécaniques de la source de lumière (spires du filament de l'ampoule). La source d'éclairage peut être plus élaborée et comporter un boîtier indépendant, éventuellement en lumière polarisée ou ultraviolet, pour faire ressortir certaines propriétés chimiques de la matière, ou éclairer l'échantillon par-dessus (notamment en métallurgie)
  • diaphragme : ouverture de diamètre variable permettant de restreindre la quantité de lumière qui éclaire l'échantillon ;
  • platine porte-échantillon : où l'on pose l'échantillon ; les pinces servent à tenir l'échantillon lorsque celui-ci est mince (par exemple une lame de verre). La platine peut être mobile (gauche-droite et avant-arrière), ce qui permet de balayer l'échantillon et de sélectionner la partie observée ;
  • objectifs : lentille ou ensemble de lentilles réalisant le grossissement. Il y a en général plusieurs objectifs, correspondant à plusieurs grossissements, montés sur un barillet. Certains objectifs sont dits à immersion car leur puissance ne peut être atteinte qu'en éliminant la lame d'air entre l'échantillon couvert par la lamelle et la frontale de l'objectif. On utilise pour cela de l'huile de cèdre ou des huiles de synthèse dont l'indice de réfraction est proche de celui du verre.
  • mise au point grossière et fine ; pour que l'image soit nette, il faut que l'objet soit dans le plan focal de l'objectif ; ces molettes font monter et descendre l'ensemble objectif-oculaire avec un système de crémaillère, afin d'amener le plan focal sur la zone de l'échantillon à observer ;
  • oculaire : lentille ou ensemble de lentilles formant l'image d'une manière reposante pour l'œil ; les rayons arrivent parallèles, comme s'ils venaient de très loin, ce qui permet un relâchement des muscles contrôlant le cristallin ; deux oculaires placés sur une tête dite binoculaire rend plus confortable l'observation (même si elle n'apporte pas de vision stéréoscopique).

L'oculaire peut être remplacé par un appareil photographique, ou - dans le cas de la vidéomicroscopie - par une caméra vidéo ou une caméra CCD pour faire une acquisition numérique. Ceci permet de faire l'observation sur un moniteur vidéo (écran de type télévision) et de faciliter l'utilisation et le traitement des images (impression, traitement informatique, télémédecine, etc.).

Limites du microscope optique

La résolution d'un microscope désigne sa capacité à séparer des détails très voisins. Indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles, la résolution du microscope optique est fondamentalement limitée par la diffraction de la lumière. En effet, du fait de la diffraction, l'image d'un point n'est pas un point, mais une tache (la tache d'Airy). Ainsi, deux points distincts mais voisins auront pour images deux taches dont le recouvrement peut empêcher de distinguer les deux points images : les détails ne sont alors plus résolus.

Selon la théorie d'Abbe, la limite de résolution (transverse) d d'un microscope, c'est-à-dire la plus petite distance en dessous de laquelle deux points voisins ne seront plus distingués, peut être exprimée simplement à l'aide de la longueur d'onde d'illumination λ, de l'indice de réfraction n en sortie d'objectif, et du demi angle du cône de lumière maximum accessible α.

d=\frac{\lambda}{2\,n\,\sin\alpha}=\frac{\lambda}{2\,\textrm{NA}}

où NA désigne le produit nsinα ou ouverture numérique de l'objectif. On peut donc augmenter la résolution de deux manières :

  • En augmentant l'indice de réfraction. Ceci peut être réalisé en utilisant un objectif à immersion  : on immerge la frontale de l'objectif dans un liquide dont l'indice de réfraction est proche du maximum de 1,5 - celui du verre.
  • En diminuant la longueur d'onde. Toutefois, si on reste dans la lumière visible, il n'est pas possible de descendre en dessous de 400 nm.

La limite de résolution d'un microscope photonique classique est d'environ 0,2 μm. Le microscope électronique en transmission atteindra, lui, une limite 100 fois plus petite.

Des techniques de microscopie photonique permettent de dépasser la limite d'Abbe. Elles sont parfois dites "super résolution" ou nanoscopies. Citons entre autres :

  • les techniques d'illumination structurée et les techniques tomographiques qui cherchent à récupérer les hautes fréquences spatiales coupées dans un microscope classique.
  • les techniques utilisant les ondes évanescentes (SNOM).
  • les techniques utilisant une mise en forme de la réponse impulsionnelle optique : microscopie confocale, microscopie STED.
  • les techniques utilisant la localisation successive de molécules individuelles, photoactivation localisation microscopy (PALM, Betzig et al., 2006) et stochastic optical reconstruction microscopy (STORM, Rust et al., 2006).

Utilisations et perfectionnement du microscope optique 

Microscopie en réflexion 

Quand on utilise un microscope classique, on l'utilise en transmission, c'est-à-dire que la lumière traverse l'échantillon observé. Il est également possible de travailler « en réflexion ». Dans ce cas, l'échantillon est illuminé du même côté que l'observateur, soit par le dessus pour un microscope droit et par le dessous dans le cas des microscopes inversés utilisés en métallographie ou en cristallographie. La lumière produite par la source passe une première fois par l'objectif, arrive sur l'échantillon, est réfléchie et repasse par l'objectif pour observation ce qui nécessite plusieurs jeux de miroirs ou prismes.

La microscopie en réflexion permet d'examiner des objets opaques, ou trop épais pour la transmission. En contrepartie bien entendu, elle ne peut donner que des informations sur la surface de l'échantillon dans le cas de l'observation en lumière blanche ; en lumière polarisée, elle permet de révéler les orientations de grains des constituants des minéraux ou métaux.

Un cas classique est la métallographie où l'on réalise des observations de pièces de métal appelées micrographies de cette manière. Comme dit plus haut le microscope est souvent inversé, la pièce à observer placée posée sur la plaque support (en général percée d'un trou circulaire).

L'éclairage épiscopique 

A contrario des éclairage diascopiques (dia - à travers), l'éclairage épiscopique (épi - autour) permet d'observer des objets opaques en couleur et en leur donnant un rendu plus « naturel ».

L'idée d'un tel éclairage est ancienne, puisqu'en 1740, Descartes a inspiré Lieberkühm qui a créé pour ses observations au microscope un miroir en argent entourant l'objectif, le foyer de ce miroir ciblant la préparation.

Microscopie en champ clair 

La microscopie optique en champ clair (ou « à fond clair ») est la plus simple et la plus ancienne des techniques de microscopie. Les longueurs d'onde utilisées (spectre visible) limitent le pouvoir séparateur de ce microscope à 0,2 µm pour ceux d'entre eux qui ont les meilleures optiques.
L'illumination se fait par transmission de lumière blanche, c'est-à-dire que l'échantillon est illuminé par dessous et observé par dessus. Les limitations de cette technique sont principalement un faible contraste de la plupart des échantillons biologiques et une résolution faible due au flou créé par la matière hors du plan focal. En contrepartie, la technique est simple et l'échantillon ne nécessite qu'une préparation minime.

Si l'échantillon est éclairé par dessus, le microscope est dit « microscope inversé » ; L'objectif est alors situé en dessous de la préparation, et le tube porte oculaire redresse les faisceaux de lumière pour que les oculaires soient "normalement" positionnés pour l'utilisateur.

Microscopie en champ sombre 

Le microscope à fond noir qui utilise le principe de la « microscopie en champ sombre » permet d'améliorer le contraste d'échantillons transparents mais non teintés .
L'illumination de champ sombre utilise une source de lumière alignée avec soin afin de minimiser la quantité de lumière directement transmise et de ne collecter que la lumière diffusée par l'échantillon. Elle permet d'augmenter considérablement le contraste, particulièrement pour les échantillons transparents, tout en ne nécessitant que peu d'équipement et une préparation d'échantillon simple. Toutefois, cette technique souffre d'une faible intensité lumineuse collectée et est toujours affectée par la limite de résolution.

L'illumination de Rheinberg est une variante de l'illumination en champ sombre dans laquelle des filtres transparents de couleur sont insérés juste avant le condenseur, de sorte que les rayons lumineux plus ou moins obliques soient colorés différemment ( le fond de l'image peut être bleu tandis que l'échantillon apparaît jaune brillant). La limite de résolution est la même que celle en champ sombre. D'autres combinaisons de couleurs sont possibles, mais leur efficacité est assez variable.

La microscopie à fond noir est particulièrement adaptée aux échantillons frais et autorise la microcinématographie (par exemple de bactéries en déplacement). Elle n'a pas d'intérêt pour les objets colorés (frottis ou coupes colorés). Elle est notamment utile pour : - observer des êtres ou objets plats à structure régulière et transparents tels que diatomées, radiolaires... - observer des formations filiformes (ex : flagelles, fibres, bactéries, certains cristaux...) - observer des objets punctiformes ou linéaires très fins, dont la taille serait limite pour la séparation du microscope à fond clair. Ces objets donneront une image de points ou traits très lumineux, (Exemple : Treponema pallidum, agent de la syphillis) et aux contours nets si l'objet est suffisamment épais, ou borrelia agent de la maladie de Lyme, pour les bactéries les plus grandes)

Illumination oblique 

L'utilisation d'une illumination oblique (par le côté) donne une image d'apparence tridimensionnelle et peut mettre en valeur des aspects invisibles autrement. C'est le principal avantage. Les limitations sont les mêmes que celles de la microscopie en champ clair.

Microscopie en lumière polarisée 

Article détaillé : Microscopie en lumière polarisée.

En microscopie en lumière polarisée, on place l'échantillon entre un polariseur et un analyseur afin de détecter les variations de polarisation de la lumière après la traversée de l'échantillon. Cette technique est très utile pour l'observation des milieux biréfringents, notamment en minéralogie.

Microscopie en fluorescence 

Article détaillé : Microscopie à fluorescence.

Quand certains composés sont illuminés par une source de lumière de haute énergie, ils émettent alors de la lumière à une énergie plus basse. C'est le phénomène de fluorescence. La microscopie à fluorescence consiste à former une image en collectant cette lumière émise.

Cette méthode est aujourd'hui de première importance dans les sciences de la vie. Elle peut être très sensible, autorisant même la détection de molécules isolées. On utilise plusieurs teintures fluorescentes afin de marquer différentes structures ou composés chimiques. Ceci permet de détecter simultanément des composés différents, tout en les différenciant par leur couleur de fluorescence.

Le microscope à contraste de phase

Article détaillé : Microscope à contraste de phase.

Le contraste de phase est une technique largement utilisée qui permet de mettre en valeur les différences d'indices de réfraction comme différence de contraste. Elle a été développée par le physicien hollandais Frederik Zernike dans les années 1930 (il reçut pour cela le prix Nobel en 1953). Le noyau d'une cellule par exemple apparaîtra sombre dans le cytoplasme environnant. Le contraste est excellent, néanmoins cette technique ne peut être utilisée avec les objets épais. Bien souvent, un halo se forme autour des petits objets qui peut noyer des détails.

Le système consiste en un anneau circulaire dans le condenseur qui produit un cône de lumière. Ce cône est superposé à un anneau de taille similaire dans l'objectif. Chaque objectif a un anneau de taille différente, aussi il est nécessaire d'adapter le condenseur à chaque changement d'objectif. L'anneau dans l'objectif a des propriétés optiques spéciales : il réduit l'intensité de la lumière directe et, ce qui est plus important, il crée une différence de phase artificielle d'un quart de longueur d'onde qui crée des interférences avec la lumière diffusée, et qui crée le contraste de l'image.

Le microscope confocal 

Article détaillé : Microscope confocal.

Le microscope confocal génère une image d'une manière totalement différente de la microscopie normale en champ clair. La résolution est légèrement meilleure, mais le point le plus important est qu'il permet de former une image de coupes transversales sans être perturbé par la lumière hors du plan focal. Il donne donc une image très nette des objets en trois dimensions. Le microscope confocal est souvent utilisé en conjonction avec la microscopie à fluorescence.

Le microscope à statif inversé 

Article détaillé : Microscope à statif inversé.

Préparation des échantillons 

L'échantillon observé doit remplir certaines conditions :

  • de planéité, pour que l'objectif en donne une image entière nette, faute de quoi on ne peut en observer qu'une portion restreinte
  • en transmission, il doit être de faible épaisseur pour que la lumière le traverse et ne rende visible que quelques éléments (cellules) dans le cas de la biologie ;
  • en réflexion, la surface doit être en général polie afin que les rayures ne masquent pas ce que l'on veut observer ;
  • les parties à observer doivent pouvoir se différencier :
    • différenciation de couleurs par la coloration chimique de solutions standardisées, pour la biologie ;
    • attaque chimiques par des acides pour révéler des défauts en métallurgie ;
    • d'autres différenciations par l'éclairage en lumière polarisée, en ultra-violet (fluorescence), ou par principe interférentiel, révélant d'autres aspect, invisibles à l'œil nu.

En biologie, il est nécessaire, au préalable, de placer la coupe de tissu (ou le liquide contenant des organismes vivants) entre une lame et une lamelle de verre. L'objectif doit s'approcher de la lame pour la mise au point sans, par maladresse, détruire la préparation devenue très fragile.

Du fait de la préparation, la microscopie optique nécessite une importante quantité d'appareils complémentaires pour la seule destination de l'observation microscopique.

Prenons le cas de la biopsie en médecine et biologie (anatomopathologie) : le diagnostic par microscopie, de pièces biologiques prélévées par biopsie pendant une opération, impose des délais courts. Pour préparer la lame, on utilise un appareil appelé cryotome, une sorte de « trancheuse à jambon », placée dans un cryostat (congélateur), qui permet de découper des tranches très fines du corps qui sera à observer en le refroidissant rapidement, puis en le découpant à l'aide de la lame d'un rasoir spécial, affûté sur une autre machine à plaque de verre à l'aide de pâtes diamantées. Si l'on veut travailler à température ambiante, les délais sont plus longs et imposent des déshydratations et remplacement des eaux supprimées par de la paraffine (24 heures) pour que l'échantillon garde sa rigidité ; ensuite, il est coloré par plusieurs substances d'actions alternées de durée très longues, elles aussi.

 

 





***********************************************

 

Par Franck - Publié dans : Inventions
Ecrire un commentaire - Voir les 0 commentaires

Présentation

Créer un Blog

Recherche

Calendrier

Novembre 2014
L M M J V S D
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
             
<< < > >>
Créer un blog gratuit sur over-blog.com - Contact - C.G.U. - Rémunération en droits d'auteur - Signaler un abus - Articles les plus commentés