カテゴリー
category_de

Optisches Wellenlängen-Messgerät

Was ist ein optisches Wellenlängen-Messgerät?

Ein optisches Wellenlängen-Messgerät ist ein spezielles Gerät zur Messung der Wellenlänge von Licht.

Da es die Wellenlänge des Lichts misst, ist es fast gleichbedeutend mit einem optischen Spektrumanalysator, aber optische Wellenlängen-Messgeräte haben im Allgemeinen einen engeren Messdynamikbereich und sind daher empfindlicher.

Optische Spektrumanalysatoren verfügen über eine Vielzahl von Funktionen, die sie vielseitig einsetzbar machen, während optische Wellenlängen-Messgeräte auf die Minimalfunktion der Wellenlängenmessung beschränkt und daher preisgünstiger sind.

Die mit optischen Wellenlängen-Messgeräten erzielten Ergebnisse entsprechen der Wellenlänge des Lichts im Vakuum und weichen von der tatsächlich in Luft beobachteten Wellenlänge um den Betrag des Brechungsindex der Luft (etwa 0,03 %) ab.

Anwendungen von optischen Wellenlängen-Messgeräten

Optische Wellenlängen-Messgeräte werden häufig eingesetzt, wenn eine höhere Wellenlängengenauigkeit bei der Charakterisierung von optischen Komponenten erforderlich ist.

Sie werden beispielsweise zur genauen Messung der Wellenlängeneigenschaften von Lichtquellen mit geringer Bandbreite, wie Lasern und LEDs, oder zur Bewertung der Wellenlängeneigenschaften von Licht in der Glasfaserkommunikation verwendet.

Viele optische Wellenlängen-Messgeräte haben einen Messbereich zwischen 1000 und 1800 nm, da sie ursprünglich häufig zur Messung der Wellenlänge von Licht in der faseroptischen Kommunikation verwendet wurden.

Funktionsweise von optischen Wellenlängen-Messgeräten

Die Funktionsweise der optischen Wellenlängen-Messgeräte besteht darin, dass sie die physikalische Interferenz von Licht nutzen, wie z. B. Fizeau-Interferometer und Michelson-Interferometer, um die Wellenlängeneigenschaften von Licht zu messen.

Das Fizeau-Interferometer ist ein sehr einfaches optisches System, das aus einer Kollimatorlinse, einer als Bezugsebene bezeichneten Glasplatte und einem Messspiegel besteht.

Das auf das Fizeau-Interferometer einfallende Licht wird durch die Kollimatorlinse kollimiert und dann beim Durchgang durch die Referenzebene teilweise reflektiert. Das Licht, das die Referenzebene durchläuft, wird vom Messspiegel reflektiert und interferiert mit dem an der Referenzebene reflektierten Licht, wodurch ein streifenförmiges Muster entsteht. Diese Interferenzstreifen sind von der Wellenlänge des Lichts und dem optischen Wegunterschied des interferierenden Lichts abhängig.

Da der Abstand zwischen der Bezugsebene und dem Messspiegel (optischer Gangunterschied) bekannt ist, kann die Wellenlänge aus dem Interferenzstreifenmuster berechnet werden. Bei der Michelson-Interferometrie wird das einfallende Licht durch einen Strahlteiler in zwei Strahlen aufgeteilt und die Intensitätsänderungen des Interferenzlichts werden gemessen, indem der optische Gangunterschied auf verschiedene Weise verändert wird. Durch inverse Fourier-Transformation kann das Spektrum (die Wellenlänge) des Lichts berechnet werden.

Weitere Informationen zu optischen Wellenlängen-Messgeräte

1. Optische Wellenlängen-Messgeräte und faseroptische Kommunikation

Optische Wellenlängen-Messgeräte werden häufig für optische Messungen in der Glasfaserkommunikation eingesetzt. Der Wellenlängenbereich von 1500 nm ist der am häufigsten verwendete Wellenlängenbereich für Glasfasern, da er den geringsten Lichtverlust bei der Übertragung in Glasfasern aufweist.

In den letzten Jahren sind die Glasfaserkommunikationsnetze jedoch bereits mit diesem Wellenlängenband allein gesättigt, so dass auch die Nutzung der umliegenden optischen Wellenlängenbänder aktiv entwickelt und umgesetzt wird.

Wellenlängen-Multiplexing ist eine der wesentlichen Technologien zur Erhöhung der Kapazität von Glasfaserkommunikationsnetzen und optische Wellenlängen-Messgeräte müssen in der Lage sein, mehrere Wellenlängen gleichzeitig zu messen und dabei eine praxisgerechte Auflösung zu erreichen. Vor diesem Hintergrund bieten einige Hersteller heute Modelle an, die mehrere Wellenlängen gleichzeitig messen können, bis zu einem Maximum von 1024 Wellenlängen.

2. Andere Anwendungen als Faseroptik-Kommunikation

Halbleiterlaser auf Basis von Verbindungshalbleitersubstraten sind als Lichtquellen für die Glasfaserkommunikation weit verbreitet und es besteht ein Bedarf an Modellen, die eine begrenzte Anzahl einzelner Wellenlängen mit sehr hoher Geschwindigkeit für die Inspektion von Halbleiterwafern und Laserchip-Massenproduktionslinien vor der Waferherstellung auswerten können.

Da die Lichtquelle für faseroptische Verstärker im 900-nm-Band liegt, werden Modelle benötigt, die Messungen bei optischen Wellenlängen von weniger als 1000 nm durchführen können.

Darüber hinaus verwendet die optische Kohärenztomographie, die heutzutage häufig in der ophthalmologischen Diagnose eingesetzt wird, Wellenlängen im Bereich von 800 nm und 1050 nm, während Fluoreszenzbeobachtungsanwendungen in der Biotechnologie hauptsächlich im sichtbaren Licht stattfinden, so dass es auch Modelle gibt, die Wellenlängen im Bereich von 300 nm bis 1200 nm verarbeiten können. Einige Modelle sind für den Einsatz im Bereich von 300 nm bis 1200 nm erhältlich. 

3. Modelle, die mit CW- und gepulsten Lichtquellen kompatibel sind

Bei Laseranwendungen gibt es Fälle, in denen CW-Laseroszillation verwendet wird, und Fälle, in denen eine gepulste Hochgeschwindigkeitslichtquelle, z. B. 1 KHz, eingesetzt wird.

Einige hochwertigere Modelle können beides, während einige Wellenlängen-Messgeräte nur für Anwendungen im CW-Betrieb geeignet sind, so dass es wichtig ist, die Spezifikationen sorgfältig zu prüfen.

カテゴリー
category_de

Flexible Leiterplatte (FPC)

Was ist eine flexible Leiterplatte?

Flexible LeiterplattenFPCs sind flexible Leiterplatten. Sie zeichnen sich durch ihre Papierdünne und Weichheit aus. Da sie leichter, kleiner und wirtschaftlicher sind als normale Substrate, haben sie in den letzten Jahren weite Verbreitung gefunden.

Flexible Leiterplatten (FPC) werden auch als flexible Substrate bezeichnet, ein Akronym für Flexible Printed Circuits.

Anwendungen von flexiblen Leiterplatten

Flexible Leiterplatten werden häufig in Elektrogeräten und Konsumgütern verwendet. Eine typische Anwendung sind Smartphones. Flexible Leiterplatten werden fast immer in den Steuerplatinen von Smartphones verwendet. Aufgrund ihrer geringen Größe und ihres geringen Gewichts sind sie für Produkte, die täglich getragen werden, sehr nützlich.

In Haushaltsgeräten werden sie in LCD-Fernsehern verwendet. Sie sind wirtschaftlich vorteilhaft, da elektronische Steuerplatinen kleiner gebaut werden können. Weitere Produkte sind Tastaturen und Drucker, für die es ein breites Spektrum an Verwendungsmöglichkeiten gibt. Weitere Anwendungen sind in der Schwerindustrie zu finden. In den letzten Jahren sind sie auch zu einem unverzichtbaren Bauteil in der Raumfahrt und in der Luftfahrtindustrie geworden.

Funktionsweise von flexiblen Leiterplatten 

Die Funktionsweise einer Flexiblen Leiterplatte ist im Grunde dieselbe wie die einer gedruckten Leiterplatte, wobei der größte Unterschied darin besteht, dass das Basismaterial eine Folie ist. Die Schaltungen werden auf eine isolierende Polyimid- oder Polyesterfolie gedruckt, wobei die Verdrahtung aus Kupfer oder einem anderen Metall besteht. Der Film und die Kupferfolie sind beide etwa 12 µm bis 50 µm dick, so dass sie recht dünn bleiben können, wenn sie zusammenlaminiert werden.

Flexible Leiterplatten werden auf folgende Weise hergestellt:

  1. Eine dünne Kupferfolie wird mit einem Klebstoff, z. B. Epoxidharz, auf eine Basisfolie aufgebracht.
  2. Dieses Basismaterial wird zum Ätzen mit einem Trockenfilm beschichtet.
  3. Durch Bestrahlung mit UV-Licht wird der Schaltplan auf die Trockenfolie übertragen.
  4. Der gewünschte Teil des Schaltplans verbleibt auf der Trockenfolie, die, wenn sie geätzt wird, das Schaltbild auf der Kupferfolie vervollständigt.
  5. Die trockene Folie wird abgezogen und eine Isolierschicht für die Beschichtung auf die gesamte Oberfläche aufgebracht.

Auf diese Weise entstehen leichte, stabile flexible Leiterplatten, die entweder einseitig oder doppelseitig bedruckt werden können. Doppelseitige Leiterplatten sind zwar weniger haltbar als einseitige, haben aber den Vorteil, dass das Design dichter sein kann. Bei doppelseitigen flexiblen Leiterplatten wird das Verfahren für einseitige Leiterplatten wiederholt, um sie herzustellen.

In den letzten Jahren wurden auch flexible Leiterplatten mit starrer Struktur und mehrschichtige FPC-Substrate entwickelt, bei denen ein starres Substrat zwischen den Leiterplatten eingefügt ist. Als Basismaterial ist Polyimid hitzebeständiger und haltbarer als Polyester.

Weitere Informationen zu flexiblen Leiterplatten

1. Merkmale von flexiblen Leiterplatten 

Flexible Leiterplatten haben drei Hauptmerkmale: Sie sind hochflexibel, leicht und teuer.

  • Hohe Flexibilität
    Als Material für flexible Leiterplatten werden Kunststofffolien wie Polyimid verwendet. Kunststofffolien sind flexibel und biegsam und werden in beweglichen Teilen von elektronischen Geräten verwendet.
  • Geringes Gewicht
    Das für flexible Leiterplatten verwendete Material ist Kunststoff, was sie leicht macht. Dies ist eine Notwendigkeit in der Raum- und Luftfahrtindustrie, wo strenge Gewichtsbeschränkungen gelten.
  • Teuer
    Flexible Leiterplatten sind in der Regel teurer als starre Leiterplatten, bei denen es sich um normale Leiterplatten handelt.

2. Vorsichtsmaßnahmen bei der Verwendung von flexiblen Leiterplatten

Bei der Verwendung von flexiblen Leiterplatten gibt es vor allem zwei Punkte zu beachten:

  • Unterschiede in der Biegefestigkeit
    Flexible Leiterplatten zeichnen sich durch ihre hohe Flexibilität aus, aber ihre Biegefestigkeit ist von Hersteller zu Hersteller und von Produkt zu Produkt unterschiedlich; bei der Verwendung von flexiblen Leiterplatten muss unbedingt ihre Biegefestigkeit geprüft werden.
  • Mechanische Schwäche
    Flexible Leiterplatten sind leichte und dünne Folien und daher mechanisch schwach. Bei der Montage von Bauteilen muss eine Platte, die so genannte Verstärkungsplatte, unter den elektronischen Bauteilen angebracht werden.

Flexible Leiterplatten müssen unter Berücksichtigung der oben genannten Punkte verwendet werden.

3. Anstieg der Größe des Marktes für flexible Leiterplatten

Laut einer Studie von Credence Resarch wächst der globale Markt für Flexible Leiterplatten von Jahr zu Jahr: Es wird erwartet, dass er zwischen 2018 und 2027 mit einer CAGR von 10,6 % wächst, und die globale Marktgröße für flexible Elektronik wird bis 2027 voraussichtlich auf etwa 4,5 Milliarden USD ansteigen.

Der wachsende Markt steht im Zusammenhang mit der steigenden Nachfrage nach flexiblen Leiterplatten in der Automobil-, Unterhaltungselektronik- und Luftfahrtindustrie.

カテゴリー
category_de

Batteriemanagement

Was ist ein Batteriemanagement?

Ein Batteriemanagement ist ein System, das den Zustand von Batterien überwacht, um deren sichere Nutzung zu gewährleisten.

Werden Batterien unsachgemäß verwendet, können sie zu schweren Unfällen und Katastrophen wie Entzündung, Stromschlag oder Explosion führen.

Dieser Bereich, der auch als Batteriemanagementsystem (BMS) oder Batteriemanagementeinheit (BMU) bezeichnet wird, gewinnt im Zuge des jüngsten Trends zur Verwendung von Smartphones und Elektrofahrzeugen in Fahrzeugen zunehmend an Bedeutung. Das Batteriemanagement ist ein Bereich, der mit dem jüngsten Trend zur Verwendung von Smartphones und Elektrofahrzeugen in Fahrzeugen immer mehr an Bedeutung gewinnt.

Batteriemanagements werden insbesondere für die Verwaltung von Batteriemodulen verwendet, die aus mehreren in Reihe geschalteten Batterien bestehen, während einzelne Batterien einzeln verwaltet werden und manchmal auch als Zellenmanagement bezeichnet werden.

Anwendungen des Batteriemanagements

Typische Anwendungen für das Batteriemanagement sind die Überwachung von Autobatterien und Batterieüberwachungsmodule für Lithium-Ionen-Batterien in Smartphones.

Lithium-Ionen-Batterien sind von allen Batterien die leistungsfähigsten, können aber bei unsachgemäßem Gebrauch schwere Unfälle verursachen.

Das Batteriemanagement wird insbesondere eingesetzt, um die Sicherheit von Lithium-Ionen-Batterien zu gewährleisten und ihre Leistung zu maximieren. In letzter Zeit wird es aufgrund der steigenden Nachfrage nach Elektrofahrzeugen und Smartphones in vielen Anwendungen für das Management von Autobatterien eingesetzt.

Funktionsweise des Batteriemanagements

Die Funktionsweise des Batteriemanagements besteht darin, dass der eingebaute Batterieschutz-IC die Batterieeigenschaften jederzeit erkennt und die Batterieschaltkreise im Falle einer Anomalie abschaltet und so zu verbesserten Batterieeigenschaften und einer längeren Lebensdauer der Batterie beiträgt, indem er Ungleichgewichte zwischen den Batteriezellen unterdrückt.

Batterieschutz-ICs bestehen in der Regel aus vier Schaltkreisblöcken und erkennen z. B. Überladung, Überentladung, Überentladungsstrom und Überladungsstrom und haben die Funktion, die Batterie abzuschalten, wenn ein Problem erkannt wird.

Die Erkennung und Abschaltung dieser Elemente erfolgt hauptsächlich über ein Element, das als Komparator bezeichnet wird. Der jedem Element entsprechende Eingangswert wird zunächst in eine Spannung umgewandelt und mit einem in jedem Komparator festgelegten Referenzwert verglichen. Je nach Größe des Ergebnisses wird dann entschieden, ob die einzelnen Schaltkreise abgeschaltet werden sollen oder nicht, wodurch sichergestellt wird, dass die Spannung sowie die Entlade- und Ladeströme in der Batterie angemessen gesteuert werden, damit sie nicht zu stark ansteigen oder abfallen.

Es gibt auch eine Zellenausgleichsfunktion, die die einzelnen Batteriespannungen überwacht und ausgleicht, um eine Verringerung der effektiven Batteriekapazität aufgrund von Spannungsschwankungen zu vermeiden, die durch individuelle Unterschiede zwischen mehreren Batterien verursacht werden, was ebenfalls durch einen Komparator erreicht wird.

Weitere Informationen zum Batteriemanagement

1. Arten von Batterieschutzformaten

Bisher haben die Batterieschutz-ICs die Schutzschaltung hauptsächlich im so genannten Stand-alone-Format betrieben, bei dem ein Vergleich von Merkmalen wie Über- oder Unterschreitung eines vorgegebenen Referenzwerts erfolgt.

Heutzutage werden jedoch Lithium-Ionen-Batterien in eine Vielzahl von elektronischen und industriellen Geräten mit mehreren Zellen eingebaut. Zu den Anwendungsbeispielen gehören kabellose Staubsaugerroboter und Drohnen, elektrische Fahrräder und Fahrräder mit Unterstützungsfunktionen sowie elektrische Elektrowerkzeuge.

Vor diesem Hintergrund sind Batterieschutz-ICs aufgetaucht, die keine eigenständigen Geräte sind, sondern einen eingebauten Mikrocontroller verwenden, um den Zustand mehrerer Zellen zu verwalten und eine detaillierte analoge Steuerung der optimalen Schutzart zu ermöglichen.

2. Batteriemanagement für Elektrofahrzeuge

Mit der jüngsten Umstellung auf EVs in Fahrzeugen erfordert das Batteriemanagement eine komplexere Steuerung. Neben den konventionellen 12-V-Bleibatterie-basierten Bordnetzen werden Lithium-Ionen-Batterien mit mehreren 100 V als Batterieäquivalent für den Fahrzeugmotor eingesetzt.

Bei Elektrofahrzeugen steht die Kapazität der Batterie in direktem Zusammenhang mit der Reichweite des Fahrzeugs, während der Wirkungsgrad der Batterie, der dem Kraftstoffverbrauch entspricht, direkt mit der Batteriespannung zusammenhängt. Daher hat jeder Hersteller seine eigene Methode zur Verbindung der Batteriezellen, und auch das Batteriemanagement erfordert fortschrittliche Technologie.

In der Welt der E-Fahrzeuge, in der die Situation von Zelle zu Zelle unterschiedlich ist, wirken sich die Genauigkeit der Daten und die Analysemethoden direkt auf die Reichweite des Fahrzeugs und die Lebensdauer der teuren Batterien aus, so dass die Hersteller (einschließlich der Start-ups) intensiv an technologischen Innovationen arbeiten, einschließlich der Einführung der drahtlosen Steuerung und des maschinellen Lernens (AI) für die Datenanalyse. Die Situation ist so, dass die Hersteller (einschließlich Start-ups) darum kämpfen, mit den neuesten technologischen Innovationen Schritt zu halten, einschließlich der Einführung der drahtlosen Steuerung und des maschinellen Lernens (KI) für die Datenanalyse.

カテゴリー
category_de

Twin Timer

Was ist ein Twin Timer?

Ein Twin Timer ist eine Art Zeitrelaisfunktion, bei der die Ein- und Ausschaltzeiten individuell eingestellt werden können.

Für Zeitrelais kann ein Flackerbetrieb eingestellt werden. Flackerbetrieb ist ein Verhalten, bei dem die Ein- und Ausschaltzeiten abwechselnd wiederholt werden, wenn eine Spannung oder ein Startsignal an das Relais angelegt wird.

Bei normalem Flackerbetrieb können nur eine EIN- und eine AUS-Zeit gemeinsam eingestellt werden, bei Zeitrelais mit Twin Timer Funktionalität können diese individuell eingestellt werden.

Anwendungen von Twin Timern

Twin Timer werden in elektronischen Geräten und Maschinen eingesetzt, die eine getrennte Einstellung von Ein- und Ausschaltzeiten erfordern. Typische Beispiele sind Lampen und Signalsäulen. Twin Timer werden auch in anderen Maschinen verwendet, die in regelmäßigen Abständen wiederholt ein- und ausgeschaltet werden müssen.

Zum Beispiel wird eine Lampe 5 Sekunden lang ein- und dann 3 Sekunden lang ausgeschaltet, oder ein Zahnrad wird 3 Sekunden lang gedreht und dann 5 Sekunden lang angehalten usw. Twin Timers werden verwendet, wenn die Geräte getrennte Ein- und Ausschaltzeiten benötigen.

Funktionsweise des Twin Timers

Das Innere eines Zeitrelais besteht aus vier Teilen: einem Eingangsteil, einem Zeitnehmungsteil, einem Stromversorgungsteil und einem Ausgangsteil.

Der Eingangsteil empfängt Signale vom Gerät und leitet sie an den Zeitmessteil weiter. Der Zeitmessungsteil misst die Zeit und gibt das Signal nach Ablauf einer bestimmten Zeit an den Ausgangsteil weiter. Der Ausgangsteil gibt dann das Signal an die verschiedenen Geräte aus. Das Netzgerät versorgt das Zeitrelais mit Spannung. Der Betrieb des Zeitrelais beginnt, wenn der Stromversorgungsteil des Zeitrelais eingeschaltet wird oder wenn ein Startsignal an den Eingangsteil gesendet wird, während die Versorgungsspannung anliegt.

Arten von Twin Timern

Neben dem Flackerbetrieb gibt es bei Zeitrelais noch andere Betriebsarten wie Einschaltverzögerung, Ausschaltverzögerung und Intervallbetrieb. Der Twin Timer ist eines dieser Zeitrelais, das im Flackerbetrieb arbeitet. Wenn das Zeitrelais auf Aus-Betrieb eingestellt ist, wiederholt es den Vorgang Aus/Ein/Aus, während es beim Ein-Betrieb den Vorgang Ein/Aus/Ein in umgekehrter Reihenfolge wiederholt.
   
Bei Twin Timers können die Ein- und die Aus-Zeit abwechselnd eingestellt werden, was das Zeitrelais veranlasst, ein Signal an den Ausgangsteil zu senden oder das Signal zu stoppen.

Zusätzliche Informationen über Twin Timer

Eine Zeitschaltuhr, die nach Ablauf einer vorgegebenen numerischen Zeit ein- und ausgeschaltet werden kann, wird als digitale Zeitschaltuhr bezeichnet. Es gibt die folgenden vier Arten von Twin Timern in digitalen Zeitschaltuhren.

Sie werden danach eingeteilt, ob sie über einen Stromrücksetzbetrieb und einen Stromhaltebetrieb für den Flackerstart bzw. den Flackerstart verfügen.

1. Toff-Modus

In diesem Modus beginnt die Zeitmessung bei der steigenden Flanke des Signaleingangs, während die Stromversorgung eingeschaltet ist, und wiederholt sich bei AUS und EIN. Die Rücksetzung erfolgt, wenn die Stromversorgung ausgeschaltet wird, und kann auch durch Eingabe eines anderen Rücksetzsignals als das der Stromversorgung oder durch Verwendung der Rücksetztaste am Gerät zurückgesetzt werden.

2. Ton-Modus

Dieser Modus beginnt ebenfalls mit der steigenden Flanke des Signaleingangs und wiederholt ON und OFF auf dieselbe Weise wie der oben beschriebene Toff-Modus, mit dem Unterschied, dass er immer bei ON beginnt.

Wie der Toff-Modus wird auch dieser Modus beim Ausschalten der Stromversorgung zurückgesetzt.

3. Toff-1 Modus

Wie der Toff-Modus beginnt dieser Modus mit der Zeitmessung bei der steigenden Flanke des Signaleingangs, während die Stromversorgung eingeschaltet ist, und wiederholt OFF und ON.

Der Unterschied zum Toff-Modus besteht darin, dass die vorherige Zeit beibehalten wird, auch wenn die Stromversorgung abgeschaltet wird. Nach dem Wiedereinschalten der Stromversorgung beginnt die Zeitmessung mit dem Einschalten des Signaleingangs von vorne.

Eine Rückstellung ist durch Eingabe eines Rückstellsignals oder durch Betätigung der Rückstelltaste möglich.

4. Ton-1 Modus

In der Betriebsart toff-1 beginnt die Zeitmessung nach der steigenden Flanke des Signaleingangs mit ON und wiederholt ON und OFF.

カテゴリー
category_de

Magnetfeldsensor

Was ist ein Magnetfeldsensor?

Ein Magnetfeldsensor ist ein Sensor zur Erfassung des Erdmagnetismus (Geomagnetismus).

Es gibt zwei Typen: einen 2-Achsen-Typ, der die XY-Achse erfassen kann und einen 3-Achsen-Typ, der die XYZ-Achse erfassen kann. Der 2-Achsen-Typ ist auf ebenem Gelände problemlos einsetzbar.

Auf abschüssigem Gelände ist eine genaue geomagnetische Erfassung jedoch nur mit dem 3-Achsen-Typ möglich.

Anwendungen von Magnetfeldsensoren

Magnetfeldsensoren werden im Allgemeinen zur Richtungsbestimmung eingesetzt. Sie werden als elektronische Kompasse z. B. in GPS-Geräten für den Bergsport und in Smartphones und Kfz-Navigationssystemen eingebaut, um die Ausrichtung des Geräts auf einer Karte zu messen.

Der in Autos und anderen Fahrzeugen eingebaute 2-Achsen-Typ erfasst die XY-Achse, während für Flugzeuge und andere Fahrzeuge, die sich dreidimensional bewegen können, wie z. B. Nicken und Gieren, ein 3-Achsen-Typ erforderlich ist, der die XYZ-Achse erfasst.

Funktionsweise von Magnetfeldsensoren

Magnetfeldsensoren messen die magnetischen Kräfte in der X-Achse, der Y-Achse und bei 3-Achsen-Sensoren auch in Richtung der Z-Achse und berechnen den Azimut. Es gibt drei Arten von Magnetfeldsensoren Hall-Sensoren, MR-Sensoren (Magneto Resistance) und MI-Sensoren (Magneto Impedance) sind typische Beispiele:

1. Hall-Sensoren

Der magnetische Fluss, d. h. die senkrechte Komponente des Magnetfelds, übt eine elektromotorische Kraft auf das Hall-Element aus, die dann als geomagnetisches Feld gemessen wird. Mit Hilfe des Hall-Effekts wird die magnetische Flussdichte gemessen, die nach Durchlaufen einer Verstärkerschaltung eine zur magnetischen Flussdichte proportionale Spannung abgibt. Er zeichnet sich durch seine einfache Anwendung aus.

2. MR-Sensoren

Bei MR-Sensoren gibt der magnetische Fluss, d. h. die horizontale Komponente des Magnetfelds, einen Widerstand an das MR-Element ab, der dann als Erdmagnetismus wahrgenommen wird. Sie unterscheiden sich von Hall-Sensoren dadurch, dass die Größe des Erdmagnetfeldes anhand der durch das Magnetfeld verursachten Änderung des elektrischen Widerstands des MR-Elements gemessen wird.

Da sie eine höhere Empfindlichkeit und einen geringeren Stromverbrauch als Hall-Sensoren haben, werden sie häufiger verwendet und werden oft für geomagnetische Erfassungsanwendungen wie elektronische Kompasse, Motordrehung und Positionserfassungsanwendungen eingesetzt.

3. MI-Sensoren

MI-Sensoren verwenden Drähte aus einem speziellen Material, das keinen kristallinen Zustand aufweist, dem sogenannten amorphen Draht. Wenn ein gepulster Strom an den amorphen Draht in Gegenwart eines geomagnetischen Feldes angelegt wird, tritt der MI-Effekt auf und das geomagnetische Feld wird anhand der Änderung der magnetischen Impedanz erkannt. Der MI-Effekt ist mehr als 10 000-mal empfindlicher als ein Hall-Sensor, so dass selbst kleinste Änderungen des geomagnetischen Feldes mit hoher Präzision gemessen werden können.

Der MI-Effekt ist ein Phänomen, bei dem sich die Impedanz in einem externen Magnetfeld mit hoher Empfindlichkeit ändert, wenn ein hochfrequenter Strom an ein magnetisches Material angelegt wird, um einen Skin-Effekt zu erzeugen. Der MI-Sensor verwendet eine Aufnahmespule, die um den amorphen Draht gewickelt ist, um die Reaktion auf externen Magnetismus zu erkennen, wenn ein Impulsstrom angelegt wird.

Der Skin-Effekt ist ein Effekt, bei dem, wenn ein Hochfrequenzstrom durch einen Leiter fließt, die Stromdichte in der Nähe der Oberfläche des Leiters zunimmt und zum Inneren hin abnimmt.

Weitere Informationen zu Magnetfeldsensoren

1. Hall-Element

Hall-Elemente sind magnetische Sensoren, die sich den Hall-Effekt zunutze machen. Der Hall-Effekt bezeichnet das Phänomen, dass bei Anlegen eines Magnetfeldes senkrecht zu den Elektronen, die durch ein Material fließen, eine elektromotorische Kraft in der Richtung senkrecht zum Strom und zum Magnetfeld erzeugt wird.

Die geladenen Teilchen, aus denen der Strom besteht, sind unter dem Einfluss des Magnetfeldes Lorentz-Kräften ausgesetzt, die eine Vorspannung der Ladung in der Substanz verursachen. Zu diesem Zeitpunkt wird in der Substanz eine Potenzialdifferenz erzeugt, die zu einer elektromotorischen Kraft führt.

2. MR-Sensorelement

MR-Sensorelemente sind magnetische Sensorelemente, die den magnetoresistiven Effekt (MR-Effekt) nutzen, ein Phänomen, bei dem sich der Widerstandswert ändert, wenn sich das Magnetfeld ändert, und das in magnetischen Materialien auftritt.

Elektronen haben zwei Spin-Zustände, genannt Up-Spin und Down-Spin. Wenn sich die Elektronen durch ein ferromagnetisches Material bewegen, schwankt die Streuungswahrscheinlichkeit innerhalb des magnetisierten Materials, wenn sich der Spin-Zustand des Elektrons nach oben oder unten ändert. Dies ist die Ursache für den MR-Effekt.

カテゴリー
category_fr

revêtement photocatalytique

Qu’est ce qu’un revêtement photocatalytique ?

Les revêtements photocatalytiques sont des revêtements appliqués sur les surfaces extérieures et intérieures des bâtiments, qui ont un effet antisalissure pour prévenir des tâches.

L’effet antisalissure est obtenu en utilisant les propriétés de la photocatalyse.

Utilisations des revêtements photocatalytiques

Les revêtements photocatalytiques sont utilisés pour recouvrir les murs extérieurs des bâtiments, les papiers peints intérieurs et les rideaux qui sont exposés à la lumière ultraviolette du soleil ou des lampes fluorescentes. Les revêtements photocatalytiques se caractérisent par leur forte hydrophilie et leur charge positive. Ils décomposent les matières organiques telles que les polluants, les virus et les substances odorantes contenues dans l’eau, produisant ainsi un effet antisalissure et une aide au nettoyage.

L’effet antisalissure permet donc au produit de rester propre. Lorsqu’il est utilisé sur des murs de bâtiments, lorsque l’eau de pluie adhère à la surface du mur, l’eau de pluie se répand le long du film de revêtement et les polluants contenus dans l’eau de pluie et les matières organiques telles que la saleté adhérant à la surface du mur sont décomposés dans une réaction d’oxydoréduction avec le photocatalyseur et emportés par l’eau de pluie.

De plus, les revêtements photocatalytiques n’endommagent pas les textiles et peuvent être utilisés sur des produits en tissu tels que les rideaux et les canapés, réduisant ainsi la détérioration du matériau et préservant l’attrait esthétique du produit. De plus, comme ils décomposent les substances organiques telles que les virus, les odeurs et les composants de la saleté, ils ont également les effets désodorisants et antibactériens requis pour ces produits d’intérieur.

Principe des revêtements photocatalytiques

Les photocatalyseurs tels que le dioxyde de titane (souvent appelé dioxyde de titane) utilisés dans les revêtements photocatalytiques absorbent les rayons ultraviolets, ce qui les rend très hydrophiles et chargés positivement.

Lorsque l’humidité adhère au film créé par ces revêtements photocatalytiques, elle se propage le long du film. La matière organique contenue dans l’eau est décomposée par la réaction d’oxydoréduction du photocatalyseur chargé positivement.

Les revêtements photocatalytiques sont des revêtements très durables, compte tenu du fait que l’effet peut être obtenu de manière répétée tant que le photocatalyseur est exposé à la lumière et que l’air et l’eau sont disponibles, que l’effet est obtenu sans utiliser d’énergie telle que l’électricité et qu’aucun déchet n’est rejeté.

Autres informations sur les revêtements photocatalytiques

1. Avantages et inconvénients des revêtements photocatalytiques

Avantages
Effets antibactériens, antiviraux et éliminateurs d’odeurs lorsqu’ils sont utilisés à l’intérieur et sur d’autres surfaces. Un autre avantage est qu’une fois utilisés, les effets sont durables et ne nécessitent que peu ou pas d’entretien.

De plus, il n’y a pratiquement pas de risque sur la santé. Le principal ingrédient des revêtements photocatalytiques est le dioxyde de titane, qui n’a pratiquement aucun effet sur le corps humain, même s’il est ingéré par voie orale. Un autre avantage est que les produits commercialisés répondent aux normes de sécurité pour différents éléments, notamment les tests de toxicité aiguë, les tests d’irritation cutanée et les tests de mutagénicité pour l’ingestion par voie orale.

Inconvénients
L’un des inconvénients des revêtements photocatalytiques est son prix qui a tendance à être cher. En effet, les revêtements photocatalytiques sont plus chers que les autres agents de revêtement, ce qui entraîne des coûts initiaux plus élevés lors de l’installation.

Par ailleurs, lorsqu’ils sont utilisés sur des murs ou d’autres surfaces, on peut s’attendre à des effets antibactériens, antiviraux et désodorisants sur la surface revêtue, mais peu d’effets sur les substances en suspension dans l’air. Un autre inconvénient est qu’il existe différents types de bactéries et de virus, de sorte que les effets antibactériens et antiviraux contre toutes les bactéries et tous les virus ne peuvent être garantis.

2. Prix des revêtements photocatalytiques

Il existe différents types et quantités de revêtements photocatalytiques sur le marché. Les prix varient, la plupart des produits coûtant entre plusieurs dizaines d’euros et plusieurs centaines d’euros. Les produits à pulvériser ont des volumes plus faibles et sont relativement bon marché, tandis que les produits à peindre pour les murs intérieurs ont des volumes plus importants et sont plus chers.

Si des revêtements photocatalytiques doivent être appliqués sur l’ensemble de l’intérieur, il faut faire appel à une entreprise spécialisée. Dans ce cas, le coût unitaire par m2 de revêtement est de quelques milliers de yens, mais il varie légèrement en fonction de conditions telles que la surface à revêtir. Les revêtements photocatalytiques étant plus chers que les autres peintures, le coût initial tend à être plus élevé, et une décision globale doit être prise, en tenant compte de la durée de vie et de l’efficacité.

カテゴリー
category_fr

modulateur électro-optique

Qu’est-ce qu’un modulateur électro-optique ?

Un modulateur électro-optique (MEO) est un dispositif utilisé pour les applications de modulation à haut débit en convertissant les signaux électriques en signaux optiques pour la sortie.

Également appelés convertisseurs E/O (ou convertisseurs O/E lorsque la conversion est inversée), ils sont principalement utilisés dans le cadre d’un dispositif de transmission optique dans les communications par fibre optique. Dans les systèmes conventionnels, le signal utilisé pour la transmission d’informations du signal modulant est toujours un signal électrique.

Toutefois, pour réaliser des communications optiques utilisant des fibres optiques ultrarapides, à faible perte et à grande capacité, les signaux électriques doivent généralement être utilisés pour moduler la source lumineuse d’une manière ou d’une autre et être émis sous la forme d’un signal optique. Le dispositif qui joue ce rôle est le modulateur électro-optique.

Utilisations des modulateurs électro-optiques

Les modulateurs électro-optiques sont principalement utilisés pour convertir la modulation des signaux électriques pour la communication par fibre optique. Ils jouent un rôle extrêmement important dans la communication par fibre optique, qui est aujourd’hui le fondement de la transmission de l’information.

La communication par fibre optique est une méthode de communication optique qui permet une transmission à grande vitesse et sur de longues distances en utilisant des fibres optiques à faible perte et à large bande passante pour les lignes de communication au lieu de fils ordinaires, qui ont une perte élevée et sont sensibles au bruit. Pour mettre en place cette méthode, il faut un dispositif capable d’échanger de manière fluide des signaux électriques et optiques, c’est pourquoi on utilise un modulateur électro-optique.

Principe des modulateurs électro-optiques

Les principes de modulation de la lumière comprennent la “méthode de modulation directe”, dans laquelle la lumière est modulée en commutant directement la polarisation électrique du laser à semi-conducteur utilisé comme source de lumière, et la “méthode de modulation externe”, dans laquelle la lumière du laser à semi-conducteur est modulée à l’aide d’un modulateur LN (LiNbO3 : niobate de lithium), etc. Les deux types de méthodes de modulation sont les suivants :

1. Méthode de modulation directe

La modulation directe est une méthode dans laquelle la source de lumière, le laser à semi-conducteur lui-même, module le signal optique. L’avantage est que la structure simple permet la miniaturisation, mais la vitesse de réponse du laser à semi-conducteur lui-même est limitée et provoque des fluctuations de longueur d’onde connues sous le nom de “chirping”, ce qui la rend moins adaptée aux communications par fibre optique à grande capacité pour les lignes interurbaines, où une vitesse élevée est requise.

2. Méthode de modulation externe

Dans la méthode de modulation externe, la lumière d’une longueur d’onde constante est émise en continu par la source lumineuse, le laser à semi-conducteur. Cette lumière est introduite dans un modulateur électro-optique tel qu’un modulateur LN, et l’amplitude et la phase de la lumière sont modifiées par un signal électrique provenant de l’extérieur. Le principe est que le signal électrique est ensuite restitué sous forme de lumière modulée.

En général, les modulateurs électro-optiques sont les modulateurs utilisés dans cette méthode de modulation externe. Pour convertir la modulation électrique ON/OFF en modulation lumineuse ON/OFF, il est important de modifier l’amplitude et la phase de la lumière à grande vitesse, et des phénomènes physiques tels que l’interférence lumineuse et l’absorption de champ électrique sont utilisés à cette fin.

Les modulateurs électro-optiques à absorption de champ (de type EA) et les modulateurs LN de type Mach-Zehnder en sont des exemples spécifiques. Les modulateurs LN, souvent utilisés dans les communications optiques à grande capacité, ont un guide d’ondes lumineuses distribué en forme de Y. Ils peuvent renforcer ou affaiblir l’intensité de la lumière passant à travers le modulateur LN en appliquant une polarisation au guide d’ondes pour induire un déphasage de la lumière.

Cette technique élimine en principe le chirping (fluctuations de longueur d’onde) des méthodes de modulation directe, ce qui rend la modulation électro-optique particulièrement appropriée pour les communications par fibre optique à grande capacité et à grande vitesse.

Autres informations sur les modulateurs électro-optiques

1. Compensation de la dérive en courant continu des modulateurs LN

Les modulateurs LN se caractérisent par une faible perte et un faible gazouillis en raison de leur principe d’interférence Mach-Zehnder. Cependant, ils sont sujets à des variations de dérive de la sortie optique dues à des changements de température et à la dérive du courant continu.

C’est pourquoi les fabricants de modulateurs LN proposent généralement des contrôleurs de polarisation dédiés aux modulateurs LN qui corrigent automatiquement la polarisation en courant continu sur la base d’informations en retour provenant des DP et d’autres sources.

2. Innovations matérielles dans les modulateurs électro-optiques

Bien que les modulateurs LN puissent supprimer les fluctuations de longueur d’onde de manière extrêmement efficace par rapport aux méthodes d’absorption de champ et de modulation directe, des travaux de développement sont en cours pour réduire la taille et la consommation d’énergie, étant donné que la tension d’entraînement est relativement élevée (environ 5 V) et que la taille du modulateur est relativement importante (50 mm ou plus).

Récemment, les instituts de recherche de divers fabricants ont entrepris des travaux de recherche et de développement pour compenser les faiblesses des modulateurs LN, tels que les guides d’ondes optiques formés en anneau sur un substrat de silicium, connus sous le nom de photonique de silicium, et les guides d’ondes MQW (multiple quantum well) sur un semi-conducteur composé d’InP.

De plus, la recherche et le développement de la technologie de fusion optoélectronique à l’IWON de NTT, qui traite activement les signaux optiques sous forme de lumière à l’intérieur du circuit intégré sans avoir besoin d’un convertisseur E/O, sont également activement poursuivis pour des communications de capacité encore plus élevée à l’avenir.

カテゴリー
category_fr

analyseur élémentaire

Qu’est-ce qu’un analyseur élémentaire ?

Un analyseur élémentaire est un appareil permettant de déterminer les types (analyse qualitative) et les rapports de composition (analyse quantitative) des éléments qui composent une substance chimique.

Comme toutes les substances sont composées d’éléments, la clarification des types et des ratios d’éléments est l’un des aspects les plus importants de la compréhension des propriétés d’une substance.

Les substances sont divisées en deux grandes catégories : les substances organiques et les substances inorganiques. Les substances organiques désignent la plupart des composés contenant du carbone. L’analyse élémentaire peut être utilisée pour déterminer le pourcentage d’éléments tels que le carbone (C), l’hydrogène (H), l’oxygène (O) et l’azote (N) afin d’obtenir une formule de composition pour les substances organiques.

Les substances inorganiques, quant à elles, sont définies comme non organiques et comprennent les éléments métalliques et non métalliques, les hydrures, les oxydes, les hydroxydes, les halogénures, les sulfates, les nitrates, les carbonates et les complexes métalliques. L’analyse élémentaire qualifie et quantifie les éléments métalliques tels que le sodium (Na) et le potassium (K), mais aussi les éléments non métalliques tels que le bore (B) et le silicium (Si) et les halogènes tels que le chlore (Cl) et le fluor (F).

Différentes méthodes d’analyse sont disponibles, en fonction de la substance concernée (organique ou inorganique), du type d’élément et de l’état de la substance (liquide ou solide).

Utilisations des analyseurs élémentaires

L’analyse élémentaire est utilisée dans un grand nombre de domaines car elle couvre une grande variété de substances chimiques. Voici quelques exemples typiques :

  • Domaines environnementaux
    Analyse des nutriments du sol, compréhension de la composition chimique des engrais, etc.
  • Secteur alimentaire
    Évaluation du contenu nutritionnel des denrées alimentaires, etc.
  • Secteur pharmaceutique
    Détermination de la composition et de la pureté des produits pharmaceutiques, etc.
  • Matériaux
    Contrôle de la qualité, compréhension de la composition des matériaux, etc.

Types d’analyses élémentaires

1. Analyse élémentaire des substances organiques

Un analyseur élémentaire des substances organiques convertit les éléments tels que le carbone dans l’échantillon en substances faciles à mesurer, puis en quantifie chacune d’entre elles par une méthode appropriée.

Tout d’abord, les éléments sont convertis soit en brûlant l’échantillon dans un gaz porteur, soit en ajoutant un agent de décomposition dans un liquide, ce qui constitue une méthode humide. Diverses méthodes d’analyse sont disponibles, mais les méthodes typiques sont énumérées ci-dessous.

Pour le carbone et l’hydrogène, l’oxygène est utilisé comme gaz porteur et l’échantillon est entièrement brûlé pour convertir le carbone en CO2 et l’hydrogène en H2O, qui sont ensuite capturés et quantifiés par des méthodes appropriées. L’azote peut être analysé en mesurant le volume après que l’échantillon a été complètement brûlé avec un adjuvant de combustion dans un flux de dioxyde de carbone et converti en N2.

Il est également possible de convertir un échantillon en ammoniac en ajoutant un agent de décomposition à l’échantillon, puis de le capturer et de le quantifier à l’aide d’un agent de réparation. L’oxygène est calculé à partir de la somme des pourcentages des autres éléments.

2. Analyse élémentaire des substances inorganiques – pour les échantillons liquides

La chromatographie ionique (CI) est une technique analytique pour la détermination qualitative et quantitative des composants ioniques, principalement en solution, en utilisant la chromatographie ionique, un type de chromatographie liquide. Les composants mesurés comprennent les anions inorganiques, les métaux alcalins et l’ammoniac.

D’autres méthodes analytiques utilisant le plasma inductif à radiofréquence (ICP) sont également connues, notamment la spectrométrie d’émission atomique ICP (ICP-AES) et la spectrométrie de masse ICP (ICP-MS). Ces deux méthodes analytiques largement utilisées permettent de mesurer simultanément environ 70 éléments dans des échantillons de solutions aqueuses. Si l’échantillon est solide, il peut être analysé par décomposition ou extraction dans une solution aqueuse.

Dans l’ICP-MS, un échantillon de solution aqueuse est atomisé et introduit dans un plasma à couplage inductif (ICP) comme source d’ionisation, et les éléments ionisés dans le plasma sont séparés et détectés par un spectromètre de masse pour l’analyse élémentaire.

L’ICP-AES, quant à lui, atomise et introduit un échantillon de solution aqueuse, puis émet une ligne spectrale de lumière lorsque les éléments excités retournent à leur état fondamental, ce qui permet d’identifier les éléments à partir de la longueur d’onde et de les quantifier à partir de l’intensité. La spectrométrie de masse fournit des informations élémentaires sur une large gamme de concentrations, des éléments majeurs aux éléments traces.

La spectrométrie d’absorption atomique (SAA) atomise les éléments dans une solution acide diluée, les expose à la lumière et mesure leur concentration à partir de l’absorption de la lumière (absorbance). Tous les atomes passent d’un état de basse énergie (état fondamental) à un état de haute énergie (état excité) lorsqu’ils reçoivent de l’énergie lumineuse de l’extérieur, mais la différence d’énergie entre l’état fondamental et l’état excité est déterminée par l’élément. La différence d’énergie entre l’état fondamental et l’état excité est donc déterminée par l’élément.

3. Analyse élémentaire des matériaux inorganiques – analyse des surfaces solides

La spectrométrie de fluorescence X (XRF) permet d’identifier et de quantifier les éléments constitutifs en mesurant la fluorescence X unique émise lorsque l’échantillon est irradié par des rayons X. La spectrométrie de fluorescence X (XRF) permet d’identifier les éléments constitutifs et de les quantifier. À l’exception d’échantillons spéciaux, elle ne nécessite aucun prétraitement, est non destructive et peut également être utilisée pour analyser des surfaces solides.

La fluorescence émise après l’irradiation d’un échantillon par des rayons X est mesurée. Selon le système de détection, on distingue les systèmes dispersifs en énergie (EDXRF) et les systèmes dispersifs en longueur d’onde (WDXRF). Le système WDX utilise un goniomètre pour mesurer les rayons X fluorescents émis, ce qui nécessite un équipement important. L’EDX, en revanche, présente une excellente résolution énergétique du détecteur lui-même, ce qui élimine la nécessité d’un système dispersif et réduit la taille de l’instrument.

カテゴリー
category_fr

matériau de mise à niveau du sol

Qu’est-ce qu’un matériau de mise à niveau du sol?

Le matériau de mise à niveau du sol est un matériau de construction pour préparer les sols en béton.

Il s’agit d’un liquide légèrement visqueux qui, lorsqu’il est versé sur le sol, s’étale en douceur grâce à sa propre fluidité. Lors de la pose, il suffit de le verser sur la surface du sol et de le lisser légèrement à l’aide d’une palette ou d’un outil similaire.

La fluidité du matériau se propage naturellement à l’horizontale sur la surface du sol, rendant la surface du sol en béton lisse. L’utilisation de matériau de mise à niveau du sol rend la construction relativement facile et permet d’obtenir une finition lisse égale ou supérieure à une finition traditionnelle à la truelle.

Utilisations des matériaux de mise à niveau du sol

Les matériaux de mise à niveau du sol sont des matériaux de construction qui conditionnent le substrat des sols en béton. En tant que tels, ils sont utiles pour ajuster le sous-plancher des installations utilisées par les humains, telles que les copropriétés, les immeubles, les écoles et les hôpitaux, ainsi que les installations où des charges lourdes sont déplacées, telles que les usines et les parkings où des charges lourdes telles que des chariots élévateurs à fourche sont utilisées.

Comme ils conviennent également pour ajuster la sous-couche des sols à imperméabiliser, par exemple dans les usines alimentaires et les cuisines où l’on utilise beaucoup d’eau. Ils servent aussi pour la préparation du sol afin de former une surface lisse avant la pose de carreaux et d’autres revêtements de sol et l’application de revêtements imperméables sur les toits, tant dans les nouvelles constructions que dans les travaux de rénovation.

Principe des matériaux de mise à niveau du sol

Les matériaux de mise à niveau du sol ayant la propriété de s’écouler en douceur grâce à leur propre fluidité, il suffit de les lisser légèrement à l’aide d’une truelle ou d’un platoir pour former une surface plane uniforme. Il convient de noter que, dans de nombreux projets de revêtement de sol, le matériau de finition est appliqué après la préparation du sol. Si la surface n’est pas lisse, les irrégularités du sol ressortiront en raison de la réflexion de la lumière après la pose du matériau de finition.

Dans le passé, on utilisait souvent du mortier. Lorsque le mortier est utilisé pour la préparation du sol, de l’eau, du ciment et du sable sont mélangés, puis l’artisan applique manuellement le mélange sur le sol à l’aide d’une truelle, progressivement. L’aspect lisse dépend donc en grande partie de l’habileté de l’artisan, la qualité est ainsi variable.

Toutefois, avec les matériau de mise à niveau du sol, une surface lisse peut être formée simplement en lissant légèrement avec une truelle ou une taloche. Une base lisse peut être formée sans dépendre de l’habileté de l’artisan et une belle surface peut être obtenue même après l’application du matériau de finition de la surface.

Types de matériaux de mise à niveau du sol

Les matériaux de mise à niveau du sol peuvent être classés en deux grandes catégories : les matériaux à base de gypse et les matériaux à base de ciment.

1. Matériaux à base de gypse

Le gypse a la propriété de se dilater légèrement lors d’une réaction d’hydratation et de ne pas se contracter. Par conséquent, les matériaux de mise à niveau du sol à base de gypse, dont l’ingrédient principal est le gypse, ont pour effet d’augmenter la stabilité dimensionnelle et de réduire l’apparition de soulèvements et de fissures.

2. Matériaux à base de ciment

Les normes de qualité des matériaux d’égalisation à base de ciment sont plus élevées que celles des matériaux d’égalisation à base de gypse en termes de résistance à la compression, d’adhérence au substrat et d’adhérence à la surface. Il existe donc de nombreux produits à haute résistance, qui se caractérisent également par leur résistance à l’eau après durcissement.

Autres informations sur les matériaux de mise à niveau du sol

1. Matériaux de mise à niveau du sol

Préparation du sol
Nettoyer la surface du sol pour éliminer le sable et la poussière. Les parties vulnérables du sol doivent également être enlevées à ce moment-là. Il est également très important de prendre des mesures de contrôle des fuites autour de la zone d’installation. Il s’agit de s’assurer que le matériau ne s’écoule pas au-delà de la zone d’installation. Un mortier est souvent utilisé pour ce traitement.

L’étape suivante consiste à appliquer un apprêt pour améliorer l’adhérence du matériau à la surface du sol et à le laisser sécher. Le traitement doit être appliqué et laissé sécher au moins un jour avant le coulage.

Mélange
Le matériau de mise à niveau du sol est mis dans un récipient contenant une quantité déterminée d’eau et malaxé à l’aide d’un malaxeur à main ou d’un malaxeur à coulis.

Versement
Le matériau malaxé est versé sur le sol jusqu’à ce que l’épaisseur spécifiée de la couche de matériau de nivellement soit atteinte. Le matériau malaxé s’écoule en douceur grâce à sa propre fluidité. Des ondulations peuvent se former à la surface et des bulles d’air générées par le sol peuvent rester dans la couche d’application, qui peuvent être lissées à l’aide d’une truelle ou d’un platoir si nécessaire pour éviter cela.

Durcissement
L’étape suivante est le processus de séchage. Évitez un séchage rapide à ce stade. Les fenêtres doivent être fermées pour empêcher le vent de souffler. En fermant les fenêtres, les ondulations causées par le vent sur la surface peuvent être évitées.

Si la finition est appliquée alors que la couche de revêtement n’est pas suffisamment sèche, l’humidité de la couche de revêtement provoquera le décollement de la finition. Le taux d’humidité recommandé pour l’application des matériaux de finition est d’environ 5 %.

2. Comparaison avec le mortier

Lorsqu’ils sont mis en œuvre avec des matériaux d’égalisation, ceux-ci sèchent en une journée environ et nécessitent une période de construction plus courte que le mortier, dont le séchage prend plusieurs jours. De plus, la construction peut être moins coûteuse qu’avec les matériaux de revêtement de sol traditionnels.

Si l’on compare uniquement le coût des matériaux, le mortier est moins cher. Toutefois, les coûts peuvent augmenter en raison de la nécessité de décharger l’eau, le ciment et le sable, ce qui prend plusieurs jours pour sécher et augmente la période de construction.

カテゴリー
category_fr

vis bouton à tête hexagonale

Qu’est-ce qu’une vis bouton à tête hexagonale ?

Les vis bouton à tête hexagonale (en anglais : Hexagon Socket Button Bolts, Hexagon Socket Button Head Screws, Hexagon Socket Head Shoulder Screws, Hexagon Socket Button Head Cap Screws) sont des vis dont la tête arrondie et hémisphérique ressemble à un bouton vu de côté.

L’extrémité de la tête est coupée horizontalement et comporte un trou hexagonal. Pour le serrage, on utilise une clé hexagonale que l’on insère dans le trou hexagonal situé sur la face supérieure de la tête.

La forme d’une vis bouton à six pans creux est la même que celle d’une vis à tête bouton, à condition que le diamètre nominal de la vis soit le même. Une vis bouton à six pans creux a un diamètre nominal supérieur à celui d’une vis bouton.

Utilisations des vis  bouton à tête hexagonale

Elles sont principalement utilisées pour monter et fixer des composants sur de petites machines et équipements où l’espace disponible pour le montage est limité. Un alésage légèrement plus grand que le diamètre extérieur de la tête de la vis et légèrement plus profond que sa hauteur est effectué du côté de l’accouplement où la vis à tête hexagonale doit être installée.

Cela permet d’installer la tête de vis sans qu’elle ne dépasse complètement. Les interférences entre la tête de vis et d’autres composants sont évitées, ce qui permet d’obtenir un résultat propre et net. Dans certains cas, le boulon peut être utilisé de la même manière qu’un boulon hexagonal, sans qu’il soit nécessaire d’effectuer un alésage.

Par rapport aux vis hexagonales, la tête du boulon est lisse et ne présente pas d’accrocs, ce qui la rend plus sûre et moins susceptible d’être endommagée en cas de contact avec une personne. Un lamage est un trou percé dans la zone de montage afin de dissimuler la tête du boulon.

Principe de la vis bouton à tête hexagonale

Elles sont fixées à l’aide d’une vis (le terme “vis” désigne ici uniquement la forme de la vis) de la même manière qu’une vis à tête hexagonale ordinaire. Les vis bouton sont souvent utilisées pour visser directement sur un taraudage sans utiliser d’écrou.

Au lieu d’insérer une clé dans la tête du boulon, comme c’est le cas pour un boulon hexagonal, une clé à section hexagonale est insérée dans le trou et serrée. Il est donc nécessaire d’assurer un espace entre les têtes de boulons et d’autres pièces.

Les vis bouton, les clés hexagonales utilisées pour fixer les boulons à tête hexagonale ne nécessitent pas d’espace à l’extérieur de la tête du boulon, ce qui permet de positionner les boulons à tête hexagonale à proximité les uns des autres. Il est donc possible de concevoir des modèles de plus petites dimensions et de réaliser des composants et des équipements compacts.

La longueur de la vis est indiquée par la longueur de la partie de la tige, y compris la partie filetée, à l’exclusion de la hauteur de la tête de vis

Vis bouton à tête hexagonale

1. Principaux matériaux et traitements de surface des vis bouton à tête hexagonale

Elles sont fabriquées dans des matériaux présentant des classifications de résistance relativement élevées en acier et acier inoxydable. Elles sont utilisées lorsque des forces de serrage élevées sont nécessaires et qu’une grande résistance est requise.

Il est nécessaire de sélectionner le matériau et la catégorie de résistance appropriés à l’emplacement et à l’application. L’acier inoxydable est utilisé lorsque la résistance à la corrosion est requise. Les catégories de résistance et les matériaux utilisés pour les boulons sont les suivants :

Acier

  • Classe de résistance 8 Acier au carbone (trempé et revenu, renforcé avec des éléments d’alliage), S45C (renforcé par traitement thermique), etc.
  • Classe de résistance 8 Acier au carbone (trempé et revenu, renforcé par des éléments d’alliage), SNB7, SCM435
  • Classe de résistance 9 Acier allié, SCM435, SCM440
  • Classe de résistance 9 Acier allié, SCM435

Acier inoxydable

  • Classe de résistance A2-50, 70 SUS304, SUS304L, SUS XM7

Lors de la sélection du matériau, il est important de prévenir la corrosion électrique. Si le matériau de la vis et celui de l’objet à fixer sont différents, une différence de potentiel entre les deux métaux peut entraîner une corrosion. L’aluminium et l’acier inoxydable doivent faire l’objet d’une attention particulière.

Pour le traitement de surface des boulons à six pans creux, la galvanisation, le placage chimique, l’anodisation et la teinture noire sont couramment utilisés pour la résistance à la corrosion dans le cas de l’acier.

2. Utilisation appropriée des vis bouton à tête hexagonale

L’utilisation correcte de ces vis sont principalement les suivantes :

  • La force de serrage doit se situer dans la plage admissible afin de ne pas briser le trou fileté entre la vis à tête cylindrique à six pans creux et l’objet à fixer.
  • Les forces répétitives (dues par exemple aux vibrations) appliquées au trou fileté entre la vis à tête cylindrique à six pans creux et l’objet à fixer doivent se situer dans la plage admissible.

3. Desserrage des vis bouton à tête hexagonale

Le desserrage peut être évité par l’utilisation d’adhésifs anti-desserrage ou par l’utilisation de vis avec anti-desserrage appliqué.

4. Outils de serrage pour les vis bouton à tête hexagonale

Elles sont fixées à l’aide d’un outil de fixation tel qu’une clé hexagonale (clé Allen) adaptée à la taille de la vis. Les clés hexagonales présentent l’avantage, par rapport aux clés plates et aux clés à molette, d’appliquer une force de serrage importante avec moins de force et de réduire l’espace de travail autour de la vis lors du serrage.

Les clés hexagonales sont disponibles en millimètres et en pouces, et le choix d’une clé hexagonale doit se faire avec précaution. Les différents types d’outils de fixation comprennent les clés hexagonales en L, les clés hexagonales à poignée en T, les clés hexagonales à tournevis et les embouts hexagonaux.

Les clés hexagonales et les embouts hexagonaux sont disponibles avec une pointe “plate” ou “à bille” du côté de l’insertion du boulon à tête hexagonale. La forme de la pointe sphérique est traitée en R au niveau de l’angle afin que la clé hexagonale puisse être serrée même à un angle.