カテゴリー
category_de

UV-LED

Was ist ein UV-LED?

UV LEDs

UV-LEDs sind LEDs, die ultraviolettes Licht aussenden.

LED steht für “Licht-emittierende Diode”. Ultraviolettes Licht hat eine kürzere Wellenlänge als violettes Licht. Im Englischen heißt es Ultraviolet und wird zum Teil mit UV abgekürzt.

Eine längere Exposition gegenüber UV-Strahlung ist für den menschlichen Körper schädlich und kann Sonnenbrand und Hautkrebs verursachen, aber sie hat auch nützliche Eigenschaften, wie z. B. bakterientötende. UV-Strahlung wird nach ihrem Wellenlängenbereich in drei Kategorien eingeteilt: UV-A (320-380nm), UV-B (280-320nm) und UV-C (200-280nm).

Anwendungen von UV-LEDs

UV-LEDs werden hauptsächlich in industriellen Anwendungen eingesetzt, es gibt aber auch UV-LED-Stiftlampen. Sie werden für eine Vielzahl von Anwendungen im industriellen Bereich eingesetzt.

Beispiele für spezifische Anwendungen sind:

  • Behandlung von atopischen Krankheiten (z. B. Neurodermitis)
  • Photodynamische Therapie (PDT) von Krebs mit Photosensibilisatoren
  • Schimmelpilzbekämpfung in Kühlschränken und Klimaanlagen
  • Sterilisation von Wasseraufbereitungsanlagen usw.
  • Trocknungsgeräte für Klebstoffe und Lacke
  • Zur Aushärtung von Reparaturharzen

In der Medizin wird z. B. die immunsuppressive Wirkung von ultraviolettem Licht genutzt. In der Industrie wird es zur Aushärtung von UV-härtenden Harzen verwendet. UV-härtende Harze werden durch UV-Licht gehärtet und für Reparaturen und Drucke verwendet. Diese Harze können durch UV-LEDs ausgehärtet werden.

Funktionsweise von UV-LEDs

LEDs emittieren Licht durch die Wechselwirkung zwischen Elektronen und Löchern am Übergang von n- und p-Typ-Halbleitern: Wenn ein elektrisches Feld in Durchlassrichtung an einen Halbleiter mit PN-Übergang angelegt wird, gehen die Elektronen im Leitungsband in das Valenzband über und emittieren Licht mit einer Wellenlänge, die der Bandlücke entspricht, wenn sie mit einem Loch annihilieren.

Die Bandlücke variiert je nach dem Material, aus dem der Halbleiter besteht, so dass die Wellenlänge durch Änderung der Zusammensetzung eingestellt werden kann. Die meisten UV-LEDs werden aus Halbleitern auf der Basis von Aluminiumgalliumnitrid hergestellt.

Weitere Informationen zu UV-LEDs

1. Tief-ultraviolette LEDs

In den letzten Jahren haben tief ultraviolette LEDs als alternative Lichtquelle zu Quecksilberlampen Aufmerksamkeit erregt. Tief ultraviolette Strahlen sind ultraviolette Strahlen mit einer kurzen Wellenlänge von 100-280 nm. Sie hat die höchste Energie aller UV-Strahlen und ist für lebende Organismen äußerst zerstörerisch.

Tief-ultraviolette LEDs werden in Umweltbereichen wie der Wasser- und Luftreinigung eingesetzt, wo sie ihre zerstörerische Kraft ausnutzen. Im medizinischen Bereich tragen sie auch zur Verhinderung der nosokomialen Übertragung von Viren bei. In der Industrie werden sie in Bereichen wie Druck und Beschichtung eingesetzt.

UV-LEDs zeichnen sich durch ihre geringe Umweltbelastung, Energieeinsparungen und eine lange Lebensdauer von mehr als 10 000 Stunden aus. Es besteht jedoch die Gefahr schädlicher Auswirkungen auf den menschlichen Körper, weshalb Maßnahmen getroffen werden müssen, um eine direkte Exposition gegenüber tief-ultraviolettem Licht durch Schutzbrillen oder andere Mittel zu verhindern.

2. Markt für ultraviolette LEDs

Die Nachfrage nach ultravioletten LEDs steigt seit 2020 rapide an, da das Bewusstsein der Verbraucher für sterile Prozesse deutlich gestiegen ist.

Der Markt für ultraviolette LEDs wird zwischen 2019 und 2024 voraussichtlich mit einer durchschnittlichen jährlichen Wachstumsrate von 60 % wachsen. Hygieneprodukte und andere Produkte, die mit UV-Sterilisationsfunktionen kombiniert sind, treiben die Nachfrage auf dem UV-LED-Markt an.

Es wird erwartet, dass der Markt wachsen wird, da die Menschen in Zukunft immer hygienebewusster werden. Darüber hinaus liegt der Preis von UV-LEDs je nach Leistung zwischen zehn und mehreren tausend Dollar. Je kürzer die Wellenlänge und je höher die Leistung, desto teurer. Mit der Ausweitung des Marktes und den Fortschritten in der Massenproduktionstechnologie werden die Preise jedoch voraussichtlich noch günstiger werden.

3. Entwicklungsstand von UV-LEDs

Lampen wie Quecksilber und Metallhalogenid wurden üblicherweise als Quelle für ultraviolette Strahlung verwendet. Lampen haben jedoch den Nachteil, dass sie eine kurze Lebensdauer haben und die Lichtquelle lange braucht, um sich zu stabilisieren.

In den letzten Jahren sind LEDs auf der Basis von Aluminiumgalliumnitrid immer beliebter geworden. UV-LEDs lassen sich nur schwer zu einer hohen Leuchtkraft bringen und haben eine geringe Leistung. Dank der jüngsten technologischen Fortschritte ist es jedoch möglich, auch im UV-C-Bereich, in dem es besonders schwierig war, eine hohe Leistung zu erzielen, eine hohe Leistung zu gewährleisten. Neben der Verbesserung der Umwandlungseffizienz wird auch die Effizienz der Lichtauskopplung verbessert.

Früher gab es das strukturelle Problem, dass das emittierte Licht vom Substrat absorbiert wurde und verloren ging. In jüngster Zeit wurden diese Probleme durch eine Oberflächenbearbeitung mit Hilfe der Nanotechnologie auf der Substratoberfläche verbessert.

カテゴリー
category_de

FPC-Steckverbinder

Was ist ein FPC-Steckverbinder?

Leiterplatten Steckverbinder

FPC-Steckverbinder sind eine Art von Steckverbindern, die eine Schaltungskomponente darstellen.

Sie verbinden flexible Leiterplatten, sogenannte FPCs. Normalerweise sieht man sie nicht, da sie zum Verbinden von Platinen in Geräten verwendet werden.

Anwendungen von FPC-Steckverbindern

FPC-Steckverbinder werden auf starren Platinen in elektronischen Geräten montiert und zum Verbinden von FPCs verwendet. Beispiele hierfür sind Automobile, medizinische Geräte, Mobiltelefone, Notebooks, LCD-Fernseher, Digitalkameras und Spielgeräte.

FPCs und FPC-Steckverbinder tragen erheblich zur Miniaturisierung und Platzersparnis von Elektrogeräten bei. Da Elektrogeräte und tragbare Geräte tendenziell immer kleiner werden, wird die Nachfrage in Zukunft voraussichtlich steigen.

Funktionsweise von FPC-Steckverbindern

FPC-Steckverbinder bestehen aus einem Kontaktteil zum Anschluss elektrischer Signale und einem Gehäuseteil zum Schutz des Kontaktteils. Dieser Aufbau ist ähnlich wie bei einem normalen Steckverbinder.

Das Material des Kontaktteils ist Metall. Es wird ein leitfähiges Material mit einer mit Gold, Silber oder Zinn behandelten Kupferoberfläche verwendet. Häufig wird die gleiche Art von Metall wie die Oberflächenbehandlung des anzuschließenden FPC gewählt, um Korrosion und andere Probleme zu vermeiden, die durch den Kontakt zwischen verschiedenen Metallarten entstehen.

Für das Gehäuseteil wird Kunstharz verwendet. Da es auf eine starre Platine gelötet wird, wird für das Harz ein hitzebeständiges Harz verwendet. Es bedeckt den Kontaktteil und schützt die Metallklemmen vor Verformung und Beschädigung. Der Kontakt und das Gehäuse nehmen eine Struktur an, die den FPC nach dem Einstecken verriegelt und den Klemmsitz beibehält.

Aufbau von FPC-Steckverbindern

Wie bereits erwähnt, verfügen FPC-Steckverbinder über einen Verriegelungsmechanismus. Es gibt zwei Arten von Verriegelungsmechanismen: ZIF- und Non-ZIF-Strukturen (N-ZIF, non-ZIF).

1. Die ZIF-Konstruktion

Bei der ZIF-Struktur wird der in den Steckverbinder eingesetzte FPC mit einem Hebel verriegelt. Wenn er verriegelt ist, berühren sich die Anschlüsse.

Da die zum Einstecken erforderliche Kraft gering ist und die Reibung reduziert werden kann, treten selbst bei Dutzenden von Stiften oder mehr Anschlüssen weniger Probleme bei der Verarbeitung und beim Kontakt auf. Aus diesem Grund wird er in vielen FPC-Steckverbindern verwendet.

2. Nicht-ZIF-Aufbau

Bei der Nicht-ZIF-Konstruktion wird der FPC durch Einpressen gegen die federbelasteten Klemmen gesteckt. Der Einpress-Verriegelungsmechanismus verriegelt den FPC durch einfaches Einstecken.

Sie ist zwar einfach zu handhaben, da die Verbindung durch einfaches Einstecken hergestellt wird, eignet sich jedoch nicht für Klemmenzahlen von mehr als einigen zehn Stiften, da die erhöhte Reibung den Steckverbinder selbst oder den FPC beschädigen kann.

Arten von FPC-Steckverbindern

FPC-Steckverbinder können grob in vier Typen eingeteilt werden: zwei Typen basieren auf der Richtung des FPC-Anschlusses und zwei Typen auf dem Verriegelungsmechanismus, was zu den folgenden vier 2×2-Kombinationen führt:

  • Horizontaler Anschluss ZIF
  • Horizontaler Anschluss Nicht-ZIF
  • Vertikaler Anschluss ZIF
  • Vertikaler Anschluss Non-ZIF

Es gibt zwei Anschlussrichtungen: horizontaler Anschluss und vertikaler Anschluss. Bei der horizontalen Verbindung wird der FPC waagerecht zur starren Platte eingesetzt. Bei der vertikalen Verbindung wird der FPC senkrecht zur starren Leiterplatte eingesetzt.

Es gibt zwei Arten von Verriegelungsmechanismen, ZIF und Non-ZIF: ZIF verwendet einen Verriegelungshebel, um den in den FPC-Steckverbinder eingesteckten FPC zu fixieren, während Non-ZIF keinen Verriegelungshebel hat und einen federbelasteten Metallkontakt verwendet, um den FPC in den Steckverbinder zu drücken.

Auswahl eines FPC-Steckverbinders

Bei der Auswahl eines FPC-Steckverbinders sind neben den oben genannten Parametern noch weitere zu berücksichtigen. Es ist wichtig, Komponenten auszuwählen, die dem Verwendungszweck und den Eigenschaften des Geräts, an dem sie montiert werden, entsprechen:

1. Abstand zwischen den Anschlüssen

Der Abstand zwischen der Mitte einer Elektrode und der Mitte der benachbarten Elektrode wird als Abstand bezeichnet; es ist notwendig, einen Steckverbinder zu wählen, der dem Verdrahtungsabstand des FPC entspricht.

2. Dicke des FPC

Um einen stabilen Sitz und eine stabile elektrische Verbindung zu gewährleisten, müssen Steckverbinder gewählt werden, die der Dicke der FPC entsprechen.

3. Anzahl der Elektroden

Die Anzahl der Elektroden muss entsprechend dem Schaltungsdesign der starren Leiterplatte und der FPC ausgewählt werden.

4. Behandlung der Kontaktoberfläche

Der Steckverbinder muss so ausgewählt werden, dass die Kontakte aus demselben Metall wie der FPC bestehen, um die Zuverlässigkeit der Signalkontinuität und den Korrosionsschutz zu gewährleisten.

5. Richtung der Kontakte

Es gibt drei Arten von Kontakten mit dem FPC: oben, unten und auf beiden Seiten. Die geeignete Kontaktrichtung muss in Verbindung mit der Struktur des verwendeten Geräts gewählt werden.

6. Art des Signals

Je nach den Eigenschaften der Signale, die durch den FPC geleitet werden, z. B. für hohe Leistungen oder hohe Übertragungsgeschwindigkeiten, müssen spezielle Steckverbinder ausgewählt werden.

カテゴリー
category_de

DC/DC-Wandler

Was ist ein DC/DC-Wandler?

Gleichspannungswandler

DC/DC-Wandler sind Stromversorgungen, die aus einer Gleichstromversorgung, die eine konstante Spannung ausgibt, unterschiedliche Gleichspannungen erzeugen.

Ein Wandler wird als Aufwärtswandler bezeichnet, wenn er eine höhere Spannung als die Eingangsgleichspannung ausgibt und als Abwärtswandler, wenn er eine niedrigere Spannung ausgibt.

Anwendungen von DC/DC-Wandlern

DC/DC-Wandler werden in elektronischen Geräten eingesetzt, um eine geeignete Versorgungsspannung für bestimmte Schaltungen bereitzustellen.

Elektronische Geräte werden in der Regel mit Netzstrom (Wechselstrom) betrieben, aber elektronische Schaltungen benötigen eine Gleichstromversorgung. Dieser Stromversorgungsschaltkreis wird als AC/DC-Wandler bezeichnet.

Andererseits haben die elektronischen Bauteile wie ICs, aus denen ein Schaltkreis besteht, unterschiedliche optimale Betriebsspannungsbereiche und müssen daher mit der richtigen Spannung für jeden einzelnen Schaltkreis versorgt werden. In solchen Fällen werden DC/DC-Wandler eingesetzt.

Funktionsweise von DC/DC-Wandlern

Es gibt zwei Arten von DC/DC-Wandler, die jeweils nach einem anderen Prinzip arbeiten:

1. Lineare Regler

Bei einem linearen Regler wird ein NPN-Transistor zwischen die Eingangs- und Ausgangsklemmen geschaltet und die Ausgangsspannung wird durch Steuerung der Spannung zwischen Kollektor und Emitter dieses Transistors konstant gehalten. Der Transistor hat die Eingangsseite als Kollektor und die Ausgangsseite als Emitter und der Regelkreis erfasst die Differenz zwischen seiner Ausgangsspannung und der gewünschten Spannung.

Die Grundfunktion besteht darin, den Basisstrom des Transistors zu steuern und die Spannung zwischen Kollektor und Emitter so zu variieren, dass die Ausgangsspannung konstant bleibt; anstelle eines NPN-Transistors kann auch ein n-Kanal-MOSFET verwendet werden, bei dem der Drain mit der Eingangsseite und die Source mit der Ausgangsseite verbunden ist und die Steuerschaltung steuert die Gate-Spannung.

2. Schaltregler

Die grundlegende Funktionsweise eines Schaltreglers besteht darin, ein Schaltelement zwischen den Eingangs- und Ausgangsklemmen vorzusehen, Strom vom Eingang zum Ausgang zu leiten, während das Schaltelement eingeschaltet ist, bis die Ausgangsspannung die gewünschte Spannung erreicht und dann das Schaltelement auszuschalten, wenn die Ausgangsspannung die gewünschte Spannung erreicht.

Dieser Vorgang wird mit hoher Geschwindigkeit wiederholt, um die Ausgangsspannung so zu steuern, dass sie innerhalb des gewünschten Bereichs bleibt. Bei DC/DC-Wandlern mit Schaltregler kann in Kombination mit einer Induktivität die von der Induktivität während der Stromunterbrechung erzeugte Sperrspannung genutzt werden, um im Boost-Betrieb eine höhere Spannung als die Eingangsspannung zu erzielen.

Darüber hinaus können auch Aufwärts-/Abwärtsregler, die unabhängig von der Eingangsspannung eine konstante Spannung ausgeben können und invertierende Regler, die aus einer positiven Spannung eine negative Spannung erzeugen, realisiert werden.

Arten von DC/DC-Wandlern

Es gibt zwei Haupttypen von DC/DC-Wandlern: Linearer Regler und Schaltregler.

1. Linearer Regler

Ein NPN-Transistor wird zwischen die Eingangs- und Ausgangsklemmen geschaltet, um die Spannung an der Ausgangsklemme so zu steuern, dass sie immer konstant ist.

  • Die Ausgangsspannung ist nur niedriger als die Eingangsspannung.
  • Die Energieeffizienz ist schlecht und die Wärmeentwicklung ist aufgrund der hohen Transistorverluste hoch. 

2. Schaltregler

Ein Schaltregler hat folgende Vorteile: Zwischen Eingangs- und Ausgangsklemme ist ein Schaltelement eingebaut, der von der Eingangsklemme fließende Strom wird durch das Schaltelement ein- und ausgeschaltet und die Spannung an der Ausgangsklemme wird konstant gehalten.

  • Je nach Schaltungskonfiguration kann er entweder mit Aufwärts- oder Abwärtswandlern verwendet werden.
  • Es ergibt einen hohen Energiewirkungsgrad und eine geringe Wärmeentwicklung des gesamten Stromkreises.

Auf der anderen Seite gibt es folgende Nachteile:

  • Es entstehen Schaltgeräusche und am Ausgang treten Spikes und Ripples auf.
  • Die Anzahl der Komponenten ist hoch und die Schaltung ist groß.

Verwendung eines DC/DC-Wandlers

Lineare Regler liefern eine stabile Ausgangsspannung mit geringem Rauschen und eignen sich daher für analoge Schaltungen, z. B. bei der Verarbeitung schwacher Signale von verschiedenen Sensoren. Allerdings erzeugen sie eine große Menge an Wärme, so dass eine geeignete Wärmeableitung erforderlich ist. Es muss darauf geachtet werden, dass die erzeugte Wärme außerhalb des Geräts abgeleitet wird, indem Kühlkörper oder Lüfter in Kombination verwendet werden.

Bei Schaltreglern hingegen können die Ausgangsspannungen über einen weiten Bereich eingestellt werden und sie können große Ströme liefern, aber die Erzeugung von Rauschen ist unvermeidlich und es können Gegenmaßnahmen erforderlich sein. Eine solche Gegenmaßnahme besteht beispielsweise darin, das Gerät in ein abgeschirmtes Gehäuse einzuschließen.

Um jedoch zu verhindern, dass das Rauschen in die analogen Schaltkreise gelangt, kann es erforderlich sein, Maßnahmen zu ergreifen wie z. B. die Trennung der Stromversorgung selbst und die Erdung des DC/DC-Wandlers und der analogen Schaltkreise auf einem gemeinsamen Erdungsniveau über einen einzigen Erdungspunkt.

Auch wenn die Wärmeentwicklung relativ gering ist, muss bei der Konstruktion auf die Wärmeableitung innerhalb des Geräts geachtet werden, wenn große Mengen an Leistung abgegeben werden, wie dies bei Linearreglern der Fall ist.

カテゴリー
category_de

Leiterplatte

Was ist eine Leiterplatte?

Leiterplatten

Eine Leiterplatte ist eine gedruckte Schaltung mit mehreren Schichten.

Der Einsatz von Leiterplatten ermöglicht die Verwendung von Leiterplatten mit hoher Dichte auf kleinem Raum, was die Herstellung multifunktionaler Produkte, z. B. in kleinen Geräten, ermöglicht. Leiterplatten bestehen aus übereinander gestapelten Lagen von Leitern und Isolatoren, die mit Laserbohrungen und Verdrahtungsprozessen durchdrungen werden, wodurch komplexe Substrate auf kleinem Raum hergestellt werden können.

Entstehung von Leiterplatten-Substraten

Da die Leiterplatten immer dichter werden, wird es immer schwieriger, mit der derzeitigen Durchgangslochstruktur allein auszukommen. Die Entwicklung von Mobiltelefonen hat Substrate erforderlich gemacht, die leichter und kleiner sind. Leiterplatten kamen um das Jahr 2000 auf den Markt und haben sich bis heute gehalten.

Leiterplatten werden in Europa und den USA als Micro-Vias bezeichnet, während sie in anderen Ländern als HDI (HIGH density interconnection) Micro-via Laser-via bezeichnet werden. In Japan wird hauptsächlich die Bezeichnung “build-up” verwendet. Wie der Name “Leiterplatte” schon sagt, handelt es sich um eine Leiterplatte mit mehreren Schichten.

Normalerweise kann eine mehrlagige Leiterplatte in einem einzigen Stapel aufgebaut werden, aber dieses Verfahren erhöht den Arbeitsaufwand und die Kosten, wird aber zunehmend aus den folgenden zwei Hauptgründen verwendet:

1. Verringerung der Platzverschwendung

Bei der Verwendung von Durchgangslöchern (Löcher zur Verbindung anderer Lagen) für mehrlagige Leiterplatten ist eine Verdrahtung außerhalb der Verbindungslage wegen der Durchgangslöcher nicht möglich. Dies bedeutet, dass die Verdrahtungseffizienz nicht verbessert werden kann, selbst wenn eine mehrlagige Leiterplatte verwendet wird.

2. Kleine Löcher mit Laser bohrbar

Dank der Fortschritte bei den Geräten ist es möglich, mit Lasern kleinere Löcher mit höherer Geschwindigkeit zu bohren als mit Bohrern. Beim Bohren mit einem Bohrer durchdringt das Loch die darunter liegende Schicht, aber mit einem Laser ist es möglich, ein Loch durch das Harz zu bohren und den Prozess auf dem Kupfer zu stoppen, wenn die Bedingungen kombiniert sind.

Daher kann durch den Aufbau (build-up) des Prozesses des Bohrens von Löchern mit einem Laser nach der Mehrfachbeschichtung, der Beschichtung und dem anschließenden Aufbau der nächsten Schicht und deren Bearbeitung mit einem Laser der Durchgangslochbereich effektiv genutzt werden und eine hohe Dichte ist möglich.

Der Einsatz von Leiterplatten ermöglicht die Verwendung von Substraten mit hoher Dichte auf kleiner Fläche, was die Herstellung multifunktionaler Produkte, z. B. in kleinen Geräten, ermöglicht. Es können komplexe Substrate mit kleinen Flächen hergestellt werden.

Anwendungen von Leiterplatten

Leiterplatten werden häufig in kleinen, leichten elektronischen Geräten verwendet. Als Leiterplatten zum ersten Mal in der Praxis verwendet wurden, kamen sie in PCs und Mobiltelefonen zum Einsatz, aber heute werden sie in kleinen Messgeräten, IoT-Geräten wie Smart Metern, digitalen Kameramodulen und PC-Peripheriegeräten verwendet.

Die Genauigkeit des Bohrens und anderer Prozesse bei der Herstellung von Leiterplatten hat Standards gesetzt und es ist notwendig, bei der Beauftragung der Erstellung einer Leiterplatte genau zu wählen, welches Genauigkeitsniveau gewünscht wird.

Verfahren zur Herstellung von Leiterplatten

Der Herstellungsprozess für Leiterplatten umfasst die Bildung der Isolierschicht, die Bearbeitung von Durchkontaktierungen, die Entfernung von Schlieren und die Beschichtung von Durchkontaktierungen:

1. Bildung der Aufbauschicht

Auf die Leiterplatte wird eine Isolierschicht aufgebracht. Bei diesem Verfahren kann Prepreg, ein starres Material oder eine Folie verwendet werden. Prepreg wird häufig für die Verpackung von Halbleitern für Digitalkameras und Smartphones verwendet.

2. Via-Verarbeitung

Hierbei handelt es sich um das Bohren von Löchern, sogenannten Vias, in die Isolierschicht zwischen den Substraten. Derzeit wird zum Bohren von Löchern in der Regel ein Laser verwendet.

Es werden auch verschiedene Lasertypen und Wellenlängen verwendet, z. B. Kohlendioxidgas und UV-YAG. Kohlendioxidgas hat eine lange Infrarot-Wellenlänge und wird daher häufig in Digitalkameras und Smartphones verwendet, während UV-YAG eine kurze Ultraviolett-Wellenlänge hat und in Bereichen mit hoher Dichte wie Halbleiter-Verpackungssubstraten eingesetzt wird.

3. Entfernung von Harzrückständen (Desmear)

Rückstände, die bei der Laserbearbeitung entstehen, werden als Smear bezeichnet. Harzrückstände lassen sich nicht verbinden und müssen entfernt werden. Dieser Vorgang wird als Desmear bezeichnet. Bleibt die Schmiere auf den Leiterplatten, kann sie zu schlechten Verbindungen führen und muss daher unbedingt entfernt werden.

Er muss mit einer starken Chemikalie (Kaliumpermanganat) entfernt werden, aber da die neueren Hochgeschwindigkeitsharze möglicherweise nicht in der Lage sind, ihn zu entfernen, können Plasma oder andere Methoden in Kombination verwendet werden.

4. Beschichtung von Durchkontaktierungen

Die Beschichtung von Durchkontaktierungen wird verwendet, um Schaltungen zwischen Platinen mit dazwischen liegenden Isolatoren zu verbinden. Da die Beschichtung auf kleinen Löchern erfolgt, ist darauf zu achten, dass keine Luftblasen eindringen.

Weitere Informationen zu Leiterplatten

1. Bezeichnungen der Durchkontaktierungen auf Leiterplatten

Die Bezeichnungen variieren je nach Anordnung und Struktur der Löcher und werden daher im Folgenden kurz erläutert:

Gestaffeltes Via
Hierbei handelt es sich um eine Methode, bei der die Position der Durchkontaktierungen wie bei einer Treppe verschoben wird.

Gestapeltes Via
Ein Via wird über ein anderes Via gestapelt. Ein Via, das sich auf allen Lagen überlappt, wird als Full-Stack-Via bezeichnet.

IVH (Englisch: Interstitial VIA Hole) interne Durchgangsbohrung
In der nicht gebauten Schicht müssen Löcher gebohrt werden, um die obere und untere Schicht zu verbinden. Diese Bezeichnung wird verwendet, weil sich die Löcher strukturell im Inneren der Leiterplatte befinden. Sie wird auch als Blind Via bezeichnet. Es ist üblich, die Aufbaulagen und die IVH-Lagen getrennt zu beschreiben.

2. Unterschied zwischen einer Leiterplatte und einer Any-Layer-Platte

Bei einer Leiterplatte werden die zu verdrahtenden Lagen auf beiden Seiten der Kernlage gestapelt, aber wenn alle Lagen Aufbaulagen sind, spricht man von einer Any-Layer-Platte.

In der bisherigen Schreibweise wäre dies 3-0-3 (6-Lagen Any Layer), aber da es nicht gut passt, 0 für unbenutzte Lagen zu verwenden, wird der Begriff als die Anzahl der Lagen + Any Layer verwendet.

Any-Layer-Platinen benötigen keine Kernschicht zur Bildung von Durchgangslöchern. Bei einer Leiterplatte ist die IVH-Stelle die Leitung der konventionellen Platte, während die Any-Layer-Platte frei zwischen den Lagen verbunden werden kann, indem nur Durchgangslöcher mit kleinem Durchmesser mit einem Laser gebohrt werden.

Aufgrund dieser unterschiedlichen Eigenschaften können Any Layer-Substrate dichter sein als herkömmliche Leiterplatten, was zu leichteren, dünneren und kleineren Produkten führt. Obwohl die Anzahl der Prozesse und die Kosten höher sind, werden sie aus den oben genannten Gründen häufig in Smartphones und anderen Produkten verwendet. 

3. Materialien für Leiterplatten

Derzeit werden hauptsächlich zwei Arten von Materialien verwendet: Glasgewebe, das dem normalen Substratmaterial entspricht und Folie, die hauptsächlich für Verpackungen verwendet wird. In der Vergangenheit wurden viele verschiedene Materialien verwendet.

Die Entwicklung von Leiterplatten begann, als IBM die Technologie für die Montage großer Computer-Flip-Chips für seine eigene Produktpalette entwickelte. In diesem Zusammenhang wurden verschiedene Studien durchgeführt.

Als Ergebnis wurde eine Belichtungs- und Entwicklungsmethode mit UV-härtendem Harz, dem so genannten Photovia, eingeführt. Dies hatte den Vorteil, dass die Durchkontaktierungen in einer Charge hergestellt werden konnten. Da eine Zwischenschichtdicke erforderlich war, wurde die Entwicklung auf der Grundlage von Materialien für Lötstopplacke für Vorhangbeschichter durchgeführt, die eine Schichtdicke erzielen können und es wurde eine Massenproduktion erreicht. Wie beim Lötstopplack wurde eine Isolierschicht durch Auftragen, Belichten und Entwickeln gebildet, gefolgt von einer abschließenden Aushärtung durch Wärme.

Danach wird chemisches Kupfer abgeschieden und eine elektrolytische Verkupferung durchgeführt, um Schicht für Schicht zu bilden. Bei der Bildung von chemischem Kupfer ist es aufgrund der Photopolymerisation des Harzes schwierig, die Schälfestigkeit zu erreichen, was die Kontrolle der Bedingungen extrem erschwert. Darüber hinaus erforderte der Entwicklungsprozess ein Lösungsmittel und unterlag verschiedenen Vorschriften, so dass man nicht von einer weit verbreiteten Technologie sprechen kann.

Später wurde das Verfahren zur Herstellung von Microvias von der optischen Herstellung auf die Laserbearbeitung umgestellt, da sich die Verarbeitungsgeschwindigkeit von Vias aufgrund der erheblichen Weiterentwicklung der Laserbearbeitungsgeräte um das Dutzendfache erhöhte. Zu dieser Zeit wurde RCC (Resin Coated Copper Foil) eingeführt. Dabei handelt es sich um ein wärmehärtendes Harz, das auf die Kupferfolie aufgetragen wird und sich in demselben halb ausgehärteten Zustand befindet wie Prepreg.

Dies hat den Vorteil, dass das Laminierungsverfahren, das dasselbe Verfahren wie bei herkömmlichen Substraten ist, verwendet werden kann. Da außerdem die Schälfestigkeit leichter zu erreichen ist, wurde die Via-Bildung mit Licht durch die Laser-Bildung von RCCs ersetzt.

Da elektronische Geräte immer kleiner und handlicher geworden sind, hat sich der Einsatz von Leiterplatten ausgeweitet. In diesem Zusammenhang sind weitere Kostensenkungen und eine Zuverlässigkeit, die hohe Dichten bewältigen kann, erforderlich.

Darüber hinaus haben erhebliche Verbesserungen in der Laserbearbeitungstechnologie es ermöglicht, gängige Materialien mit Glasgewebe zu bearbeiten, was zu einem erheblichen Anstieg der Verwendung von Materialien mit Glasgewebe geführt hat. Verschiedene Handys, wie Mobiltelefone und Digitalkameras, sind von dieser Art.

Bei der LSI-Verpackung hingegen ist ein mehrstufiger Aufbau mit hoher Dichte erforderlich, um dem hochdichten Flip-Chip von LSIs gerecht zu werden. Um mehrere Schichten und ein niedriges Profil unterzubringen, sind dünnere Zwischenschichtdicken, kleinere Vias und flache Oberflächen erforderlich. Um diese Anforderungen zu erfüllen, wurden folienartige Materialien entwickelt.

Um den Schaltkreis mit Harz zu füllen, ist ein Vakuumlaminator und für die Abscheidung des chemischen Kupfers auf der Harzoberfläche ist eine spezielle Anlage erforderlich. Dies erfordert hohe Investitionen. In Verpackungsanwendungen wird es für große MPU-LSI in PC-Smartphones verwendet.

カテゴリー
category_de

Monolithischer Keramikkondensator

Was ist ein monolithischer Keramikkondensator?

Monolithische KeramikkondensatorenMonolithische Keramikkondensatoren, auch bekannt als MLCC (Multi-Layer Ceramic Capacitors), sind Kondensatoren in Chip-Bauweise mit mehreren Schichten von Innenelektroden und dielektrischen Schichten. In der Kondensatorindustrie wird eine weitere Entwicklung erwartet, bei der die Miniaturisierung und die Kapazität zunehmen.

Als Dielektrikum werden hauptsächlich Bariumtitanat und Titanoxid verwendet, wobei die Innenelektrode und das Dielektrikum in mehreren Schichten aufgebaut sind. Durch die Erhöhung der Anzahl der Schichten kann die Kapazität gesteigert werden, was zu einer Miniaturisierung der MLCCs führt.

Die neuesten gängigen Größen von MLCCs sind 0603 (0,6×0,3 mm) und 0402 (0,4×0,2 mm). Für einige Kapazitätswerte wurde bereits die nächste Generation der Größe 0201 realisiert, die sich jedoch aufgrund von Handhabungsproblemen noch nicht auf dem Markt durchgesetzt hat.

Monolithische Keramikkondensatoren gibt es in Chip- und Radialbauweise. Im Vergleich zu anderen Kondensatoren haben sie eine niedrige Hochfrequenzimpedanz und einen niedrigen ESR (äquivalenter Serienwiderstand) und zeichnen sich durch gute Hochfrequenzeigenschaften aus.

Arten von Monolithischen Keramikkondensatoren

Monolithische Keramikkondensatoren sind mit einer Vielzahl von Merkmalen erhältlich, aber bei der Entscheidung, welcher Typ für eine bestimmte Anwendung in Frage kommt, müssen die Größe (Größe), die Spannungsfestigkeit und die Temperatureigenschaften berücksichtigt werden. Monolithische Keramikkondensatoren lassen sich hinsichtlich ihrer Eigenschaften grob in Klasse 1 und Klasse 2 einteilen.

1. Klasse 1

Kondensatoren der Klasse 1 werden auch als temperaturkompensierte Kondensatoren bezeichnet und können relativ leicht kompensiert werden, da sie einen extrem niedrigen ESR-Wert haben und ihre Kapazität nicht stark mit der Temperatur schwankt und die Schwankungen linear sind.

Allerdings ist die Kapazität meist klein und liegt zwischen 1 pF und 1 µF. Sie werden hauptsächlich in Anwendungen eingesetzt, bei denen Kapazitätsänderungen unerwünscht sind, wie z. B. in Oszillatorschaltungen und Schaltungen mit Zeitkonstanten.

2. Klasse 2

Klasse 2 wird auch als ferroelektrischer Typ bezeichnet und besteht hauptsächlich aus Bariumtitanat, das auch bei kleinen Abmessungen eine große Kapazität von etwa 100 µF bietet. Bei ihrer Verwendung sind jedoch viele Punkte zu beachten, wie z. B. ein großer ESR, große Temperaturschwankungen bei der Kapazität und eine Abnahme der tatsächlichen Kapazität, wenn eine Gleichstromvorspannung angelegt wird.

Daher müssen bei der Verwendung von Monolithischen Keramikkondensatoren der Klasse 2 beim Schaltungsentwurf deren Eigenschaften berücksichtigt werden. Die wichtigsten Anwendungen sind Schaltungen, bei denen eine geringe Kapazitätsänderung kaum Auswirkungen hat, wie z. B. Glättungsstromquellen und Entkopplungskondensatoren.

Anwendungen von monolithischen Keramikkondensatoren

Monolithische Keramikkondensatoren haben ein breites Anwendungsspektrum, da ihre Leistung je nach Anzahl der Lagen gewählt werden kann und die Palette breit gefächert ist. Monolithische Keramikkondensatoren werden in Mobiltelefonen, Fernsehgeräten und Industrieanlagen zur Entkopplung, Kopplung und Glättung von Schaltungen, in DC/DC-Wandlern, in Computernetzteilen und zur Rauschunterdrückung eingesetzt.

Für Anwendungen in der Automobilindustrie werden langlebige, ausfallsichere Produkte gewählt. In Industrieanlagen werden häufig kompakte Kondensatoren mit hoher Kapazität verwendet, die in den letzten Jahren andere Kondensatoren ersetzt haben.

Derzeit sind die gängigen Monolithischen Keramikkondensatoren mit den Größen 1005 (1,0 x 0,5 x 0,5 mm) und 0603 (0,6 x 0,3 x 0,3 mm) recht klein, aber in Zukunft werden sich ultrakleine Kondensatoren wie die Größe 0402, die bereits auf dem Markt verwendet wird. Die nächste Generation der Größe 0201 durchsetzen.

Funktionsweise monolithischer Keramikkondensatoren

Die Kapazität C eines Kondensators ist proportional zur Dielektrizitätskonstante ε und der Elektrodenfläche S des Dielektrikums und umgekehrt proportional zum Abstand d zwischen den Elektroden. Wenn Kondensatoren parallel zueinander geschaltet sind, ist die Gesamtkapazität gleich der Summe der Kapazitäten der einzelnen Kondensatoren.

Der Schlüssel zur Erhöhung der Kapazität eines Kondensators ist daher die Verwendung eines Dielektrikums mit einer hohen Dielektrizitätskonstante, die Vergrößerung der Elektrodenfläche und ein möglichst geringer Abstand zwischen den Elektrodenplatten. Ein Monolithischer Keramikkondensator hat eine Struktur, die aus Schichten sehr dünner Elektrodenplatten besteht, die man sich als eine Reihe parallel geschalteter Kondensatoren mit einem geringen Abstand zwischen den Elektrodenplatten vorstellen kann.

Mit anderen Worten: Die Anzahl der Schichten N ist proportional zur Kapazität C des Kondensators. Durch Erhöhung der Kapazität mit der Anzahl der Schichten N können Monolithische Keramikkondensatoren also sowohl kleiner als auch größer werden.

Darüber hinaus wird Bariumtitanat, das eine sehr hohe Dielektrizitätskonstante hat, hauptsächlich als Dielektrikum verwendet, aber es wird erwartet, dass seine Leistung irgendwann eine Obergrenze erreicht. Daher wird die Entwicklung von Materialien mit einer höheren Dielektrizitätskonstante und einer geringeren Anfälligkeit für Verschleißerscheinungen erwartet.

Aufbau eines monolithischen Keramikkondensators

Für die Elektroden wird Nickel und für das Dielektrikum hauptsächlich Bariumtitanat verwendet. Die Nickelpaste, die als Innenelektrode dient, wird in Form einer Platte auf das Dielektrikum aufgetragen, das dann durch Aufeinanderschichten mehrerer Platten und Ausüben von Druck geformt wird.

Anschließend werden sie in kleine Stücke geschnitten und bei ca. 1000 °C gesintert. Durch das Anbringen der äußeren Elektroden wird der Kondensator zu einem Monolithischen Keramikkondensator. Indem man dafür sorgt, dass die Innenelektroden abwechselnd links und rechts mit den Außenelektroden verbunden werden, befinden sich die Schichten in demselben Zustand, als wären sie parallel geschaltet worden.

Da sie in Plattenform hergestellt werden, sind sie leistungsfähiger geworden und haben sich in Bezug auf Miniaturisierung und Dünnheit weiterentwickelt. Die Anzahl der Schichten kann bis zu 1000 betragen. Man unterscheidet zwischen Systemen mit niedriger Dielektrizitätskonstante, bei denen hauptsächlich Titanoxid als Dielektrikum verwendet wird, sowie in Systemen mit hoher Dielektrizitätskonstante, bei denen Bariumtitanat als Dielektrikum dient.

Klasse 1 wird zur Temperaturkompensation, für niedrige Kapazitäten und in Signalschaltungen usw. verwendet. Klasse 2 hat eine hohe Dielektrizitätskonstante und einen großen Temperaturkoeffizienten und wird zur Entkopplung von Stromversorgungen und für Glättungsschaltungen verwendet.

Weitere Informationen zu monolithische Keramikkondensatoren

1. Eigenschaften

Die Kapazität eines Monolithischen Keramikkondensators variiert mit der Temperatur. Bei der Auswahl eines Monolithischen Keramikkondensators muss daher nicht nur die Kapazität und die Nennspannung, sondern auch die Temperatur in der Betriebsumgebung berücksichtigt werden.

Monolithische Keramikkondensatoren zeichnen sich durch einen niedrigen Serienersatzwiderstand (ESR) aus, der auf die Verwendung von Metallen wie Nickel und Kupfer in den Elektroden zurückzuführen ist. Außerdem zeichnen sich Monolithische Keramikkondensatoren aufgrund ihrer Struktur durch eine niedrige parasitäre Induktivität (ESL) aus, was sie für den Einsatz bei hohen Frequenzen geeignet macht.

Durch die Ausnutzung dieser Eigenschaften von niedrigem ESR und ESL ist es möglich, Resonanzkreise mit hohen Q-Werten und verlustarmen Anpassungsschaltungen zu bilden. Dies macht MLCCs zu einem unverzichtbaren Bauteil im Bereich der Hochfrequenzschaltungen sowie bei Anwendungen zur Entkopplung von Stromversorgungen und zur Rauschunterdrückung.

Durch Änderung der Anzahl der Elektrodenschichten lässt sich die Kapazität von einer kleinen bis zu einer großen Kapazität frei steuern. Daher zeichnet sich der monolithische Keramikkondensator als Produkt auch durch einen sehr großen Kapazitätsbereich in der vorbereiteten Reihe aus.

2. Basistechnologie für große Kapazität

Die Kapazität eines Kondensators nimmt proportional zur Fläche der inneren Elektrodenplatte zu. Um eine hohe Kapazität zu erreichen, ohne die Größe des monolithischen Keramikkondensators zu verändern, ist es wichtig, so viele Elektrodenschichten wie möglich zu stapeln.

Um eine Miniaturisierung und eine hohe Kapazität zu erreichen, müssen im Allgemeinen Elektroden mit einer Dicke im Submillimeterbereich gestapelt werden, sodass die Verdünnung der Elektrodenschichten eine wesentliche Technologie darstellt. Für dünnere Elektrodenschichten sind die Einstellung von Bariumoxid, dem Rohstoff des Dielektrikums, und die Drucktechnik zur Formung der Innenelektroden in Pastenform zu Platten wichtig.

Das Dielektrikum besteht aus feinen Partikeln, den so genannten Körnern, die durch die Zugabe von Additiven zu Bariumoxid, das Bedrucken in Plattenform und anschließendes Sintern gebildet werden. Wie die Mikrostruktur des Korns beschaffen ist, ist entscheidend für das angemessene Funktionieren des Dünnschichtdielektrikums.

Mit Hilfe der Siebdrucktechnik, wie sie für den Siebdruck verwendet wird, werden dünne Innenelektroden auf die Paste gedruckt. Indem die Paste durch die Mikroporen extrudiert wird, kann eine gleichmäßige dünne Schicht der Innenelektrode gebildet werden.

3. Markt

In der Welt der Elektronik sind ,onolithische Keramikkondensatoren unerlässlich. So werden beispielsweise pro TV-Empfänger etwa 200 bis 300 monolithische Keramikkondensatoren und pro Smartphone 1.000 verwendet.

Bei Elektrofahrzeugen sind es mehr als 15.000 Kondensatoren pro Fahrzeug. Drei japanische Unternehmen haben den Großteil des Weltmarktanteils.

  • Murata: 33,9 % (2020, < 40 % liegen)
  • Samsung Elektromechanik: 18,1 %
  • Taiyo Yuden: 10,3 %
  • TDK: 8,4 %

Leistungsstarke Monolithische Keramikkondensatoren sind besonders im Automobilbereich gefragt, wo Murata und TDK den Weltmarkt dominieren. Die Verwendung von monolithischen Keramikkondensatoren wird voraussichtlich ab 2021 weiter zunehmen, wenn Smartphones der 5G-Generation weit verbreitet sein werden. Es wird davon ausgegangen, dass die Knappheit bis auf Weiteres anhalten wird.

カテゴリー
category_de

Analog-Front-End (AFEs)

Was ist ein Analog-Front-End (AFE)?

Ein Analog-Front-End ist ein Satz analoger Schaltungen, der ein Gerät, das Signale erfasst, wie z. B. einen Sensor, mit einem Gerät verbindet, das digitale Signale verarbeitet.

Es wird manchmal auch als AFE bezeichnet, abgeleitet vom Akronym Analog Front End. Da die Hauptaufgabe eines Analog-Front-Ends darin besteht, die von Sensoren ausgegebenen analogen Signale anzupassen, um sie mit digitalen Schaltungen zu verbinden, wird es manchmal auch als Signalaufbereitungsschaltung bezeichnet.

Analoge Signale, die von Sensoren und anderen Geräten erfasst werden, sind oft sehr schwach und enthalten viele Rauschkomponenten, sodass es notwendig ist, diese analogen Signale durch Entfernen von Rauschen und Verstärken anzupassen.

Anwendungen von Analog-Front-Ends (AFEs)

Analog-Front-Ends werden zur Steuerung verschiedener Sensormodule verwendet.

Die aktuelle Ära wird oft als IoT-Ära bezeichnet. Unter den vielen Sensormodulen spielen die IoT-Sensormodule eine wichtige Rolle in der IoT-Ära. Die grundlegende Systemstruktur besteht darin, dass physikalische Phänomene mit Hilfe von Sensoren als analoge Werte erfasst, in digitale Signale umgewandelt, von einem Mikrocontroller digital verarbeitet und dann über einen drahtlosen Kommunikationschip in die Cloud hochgeladen werden.

In dieser Konfiguration spielt das analoge Frontend zusammen mit den Sensoren und dem drahtlosen Kommunikationschip eine wichtige Rolle: Um die Leistung des IoT-Sensormoduls zu verbessern, muss das AFE entsprechend gestaltet werden, um die digitale Verarbeitung zu ermöglichen und gleichzeitig so viel wie möglich von den Eigenschaften des Sensors zu extrahieren.

Funktionsweise des Analog-Front-Ends (AFEs)

Das Prinzip des Analog-Front-Ends liegt in den verschiedenen Schaltungsinnovationen, die die analogen Informationen der Sensorausgangswerte mit den digitalen Schaltkreisen genau verbinden. Da die Sensorausgänge im Allgemeinen verrauscht und die Signale selbst schwach sind, ist es notwendig, Filter und Verstärker zur Rauschunterdrückung und Signalverstärkung einzusetzen. Die erforderlichen Schaltungen sind in das AFE integriert und dann mit einem A/D-Wandler zur Umwandlung analoger Signale in digitale Werte verbunden.

A/D-Wandler sind in der Regel vom Typ Delta-Sigma-Modulation. ie Schaltungsskala beträgt in der Regel 16 bis 32 Bit, abhängig von der zu verarbeitenden Datenmenge. Zu den Verstärkerschaltungen gehören Instrumentenverstärker, Operationsverstärker und Transimpedanzverstärker, die über mehrere Schaltfunktionen und Verstärkungseinstellfunktionen verfügen, um ein breites Spektrum von Sensorsignalen einzustellen.

Das AFE selbst muss mit digitalen Schaltungen für die Steuerung der seriellen Kommunikation, z. B. SPI, arbeiten und ist daher ebenfalls mit digitalen Schaltungen für serielle Schnittstellen ausgestattet.

Zusätzliche Informationen zu Analog-Front-Ends (AFEs)

Halbleiterchips sind oft sehr leistungsfähig, und Analog-Front-Ends reichen von diskreten Produkten mit einem hohen Freiheitsgrad bis zu integrierten Produkten mit vielen Funktionen. Mehrere integrierte Funktionen sind relativ einfach zu verwenden.

Viele hochintegrierte Analog-Front-End-Chips mit hoher Funktionalität sind inzwischen auf dem Markt erhältlich, z. B. Analog-Front-Ends, die in Drucksensoren, Temperatursensoren usw. integriert sind. Verstärker, A/D-Wandler und andere Komponenten sind in einem einzigen Chip integriert, der auch über Funktionen verfügt, mit denen die Eigenschaften des AFE-Teils und der Stromquelle an die Eigenschaften des Sensorelements angepasst werden können. Der Grund dafür ist, dass Sensorelemente in der Regel je nach Temperatur und Intensität verschiedene Leistungsschwankungen aufweisen. Die Kompensationsfunktion ist ebenfalls ein sehr wichtiges Merkmal für AFE.

Analog-Front-Ends (AFEs) für optische Sensoren gibt es in einer Vielzahl von Varianten, darunter solche, die mit optischen Elementen integriert und als Paket erhältlich sind, sowie solche, die keine optischen Elemente enthalten und nur AFE-Funktionen bieten, sodass der Benutzer die anzuschließenden optischen Elemente frei wählen kann.

カテゴリー
category_de

Kugelkeilverzahnung

Was ist eine Kugelkeilverzahnung?

Kugelkeilverzahnungen sind Linearlager, ein Maschinenelement, das vor allem dort eingesetzt wird, wo eine gleichmäßige lineare Bewegung gewünscht ist.

Eine Kugelkeilverzahnung besteht aus einer Reihe von Rillen, die in Längsrichtung der Welle eingegraben sind und die als Achse der linearen Bewegung dienen. Durch Einklemmen der Welle von oben durch ein äußeres zylindrisches Bauteil, die Keilwellenmutter, kann eine gleichmäßige axiale und rotatorische Bewegung in einer einzigen Achse erreicht werden.

Es gibt mehrere ähnliche Maschinenelemente wie die Kugelkeilverzahnungen, aber von diesen ist die Kugelkeilverzahnung das am besten geeignete Maschinenelement, wenn auch eine gleichmäßige lineare Bewegung und eine Drehbewegung um die Achse übertragen werden soll, während sie eine relativ große Last aufnimmt.

Anwendungen für Kugelkeilverzahnungen

Kugelkeilverzahnungen werden in einer Vielzahl von Industriemaschinen eingesetzt, bei denen gleichzeitig Dreh- und Vertikalbewegungen erforderlich sind. Kugelkeilverzahnungen werden zum Beispiel auch bei Roboterarmbewegungen und in Rotationsschleifmaschinen eingesetzt, wo Rotation und Anpressen an das Werkstück gleichzeitig ausgeführt werden müssen.

Sie werden auch dort eingesetzt, wo gleichmäßige, langhubige einachsige Bewegungen erforderlich sind, wie z. B. in Transportgeräten.

Funktionsweise der Kugelkeilverzahnungen

Bei einer Kugelkeilverzahnung wird das Drehmoment durch die Abrollbewegung der Kugeln und ihre Anpassung an die Verzahnung übertragen. Die Abrollbewegung wird durch eine Reihe von Führungsrillen auf der Außenseite der Welle, die als Führung dient, und durch eine Reihe von Stahlkugeln, die auf der Innenseite eines äußeren zylindrischen Teils, der so genannten Keilwellenmutter, auf elliptischen Bahnen mit beliebiger Krümmung abrollen, erreicht.

Die Stahlkugeln sind geschmiert und rollen mit sehr geringer Reibung zwischen der Keilwellenmutter und der Keilwelle. Andererseits werden die Stahlkugeln bei der Drehung der Welle in die Keilnut eingepasst, so dass sich die Welle und die Keilwellenmutter nicht in der Drehrichtung verschieben. Diese beiden Mechanismen ermöglichen eine lineare Bewegung entlang der Keilwelle und eine Drehbewegung mit einer einzigen Welle.

Auswahl einer Kugelkeilverzahnung

Der innere Aufbau aller Kugelkeilverzahnungen ist nahezu identisch. Die Lasten und Drehmomente, die aufgenommen werden können, hängen jedoch von der Größe der Keilwellen und anderen Faktoren ab. Daher ist es wichtig, die geeignete Größe der Keilwellen entsprechend der Konstruktion des zu verwendenden Geräts zu wählen.

Es ist auch wichtig, Optionen in Betracht zu ziehen, die für die Betriebsumgebung geeignet sind, wie z. B. die Verwendung von Materialien aus rostfreiem Stahl, wenn die Ausrüstung in Räumen mit korrosiven Gasen oder Feuchtigkeit eingesetzt werden soll, oder der Wechsel des Kugelschmiermittels zu einem Spezialschmiermittel in Situationen, in denen hohe Sauberkeit erforderlich ist.

Weitere Informationen zu Kugelkeilverzahnungen

1. Rotierende Kugelkeilverzahnungen

Eine rotierende Keilwelle ist ein Maschinenelement mit einem Mechanismus, der lineare und rotierende Bewegungen in einer einzigen Baugruppe ermöglicht. Sie zeichnet sich durch die Hinzufügung eines Mechanismus aus, der als Kreuzrolle bezeichnet wird und für eine gleichmäßige Drehbewegung sorgt, die unabhängig von den normalen Kugelkeilverzahnungen ist.

Durch die Einheit von Keilnut und Drehteil lässt sich die Anzahl der Teile im Vergleich zu herkömmlichen Mechanismen erheblich reduzieren und die Fehlerhäufigkeit bei der Installation verringern. Darüber hinaus ist die Kreuzrolle direkt auf der Außenhülse der Kugelkeilverzahnungen positioniert, was sie leicht und kompakt macht. Sie ist leichter und einfacher zu montieren als herkömmliche Mechanismen.

Rotierende Kugelführungen werden in Montagemaschinen, Ladern und Laserfräsen eingesetzt, auch bei horizontal gelenkigen Industrierobotern, den so genannten SCARA-Robotern.

2. Unterschied zwischen Kugelkeilverzahnungen und Linearbuchsen

Linearbuchsen sind rollengeführte lineare Bewegungsmechanismen und werden in Kombination mit Linearwellen verwendet, die die Rollbewegung von Stahlkugeln nutzen, um eine stufenlose lineare Bewegung zu ermöglichen. Der äußerliche Hauptunterschied besteht darin, dass eine Kugelbuchse eine Keilnut auf der Welle hat, während eine Linearbuchse keine Nut auf der Welle hat.

Bei einer Kugelbuchse sind die Kugeln in einer geraden Linie in Bezug auf die Buchse angeordnet und gleiten in Punktkontakt mit der Welle. Im Gegensatz dazu rollen die Kugeln bei Kugellager Verzahnungen über die Rillen auf der Welle, so dass die Kontaktfläche zwischen den Kugeln und der Welle groß ist und sie sich nicht in der Drehrichtung verschieben, so dass gleichzeitig ein Drehmoment übertragen werden kann.

カテゴリー
category_de

Feldbus-Komponente

Was ist eine Feldbus-Komponente?

Ein Feldbus ist ein Bussystem, das digitale Kommunikation verwendet, um Feldgeräte wie Sensoren und Aktoren mit Steuerungen wie SPS und DCS in Fabriken, Anlagen und anderen Standorten zu verbinden.

Durch den Einsatz von Feldbus-Komponenten kann die Verdrahtung entfallen, die Datenmenge erhöht und die Störfestigkeit im Vergleich zu herkömmlichen analogen oder parallelen Signalen verbessert werden. Außerdem können Selbstdiagnosen durchgeführt und Einstellungen von Feldgeräten aus der Ferne geändert werden.

Es gibt verschiedene Arten, von denen PROFIBUS, CANopen und AS-i typische Beispiele sind.

Anwendungen von Feldbus-Komponenten

Aufgrund ihrer Vielseitigkeit und Effizienz werden Feldbus-Komponenten in einer Vielzahl von Branchen eingesetzt, insbesondere in der Fertigung. Sie sind ein wichtiges Instrument zur Kostensenkung, Effizienzsteigerung und Optimierung.

1. Verarbeitende Industrie

Prozesssteuerung und -überwachung sind Schlüsselelemente in der Fertigungsindustrie. Feldbus-Komponenten wie Sensoren und Aktoren können auf einer einheitlichen Kommunikationsplattform zusammenarbeiten, um Prozesse zu automatisieren und die Effizienz zu steigern.

2. Prozesssteuerung

Bei der Prozesssteuerung, z. B. in Chemieanlagen und Raffinerien, überwachen Feldbus-Komponenten Prozessvariablen wie Temperatur, Druck und Durchfluss in Echtzeit und nehmen die erforderlichen Anpassungen vor, um optimale Bedingungen zu schaffen.

3. Automatisierung

In der Gebäude- und Infrastrukturautomatisierung integrieren Feldbus-Komponenten eine Vielzahl von Geräten wie Beleuchtung, Heizung und Kühlung sowie Sicherheitssysteme in ein einziges Netz. Dies ermöglicht es den Betreibern, alle Systeme von einer zentralen Stelle aus zu überwachen und zu steuern.

4. Automobilherstellung

In der Automobilfertigung vernetzen Feldbus-Komponenten die Stationen der Produktionslinie, indem sie die Daten von Aktoren und Sensoren zusammenführen und eine präzise Koordination zwischen den Stationen ermöglichen.

Funktionsweise der Feldbus-Komponenten

Kurz gesagt ist das Prinzip von Feldbus-Komponenten der Informationsaustausch zwischen Geräten mittels digitaler Kommunikation. Feldbus-Komponenten werden aufgrund der folgenden Eigenschaften in einer Vielzahl von Bereichen eingesetzt, z. B. in der Fertigung, Prozesssteuerung usw.

1. Multi-Drop

Feldbus ist ein Kommunikationsnetz, das verschiedene Geräte in einer Fabrik oder Anlage mit einem einzigen Kabel verbindet. Dadurch kann jedes Gerät Daten über ein einziges Feldbuskabel senden und empfangen, ohne dass separate Verbindungskabel erforderlich sind. Dies wird auch als digitale Multi-Drop-Technologie bezeichnet und ermöglicht es mehreren Geräten, dieselbe Kommunikationsleitung zu nutzen.

2. Kommunikationsprotokolle

Feldbus-Komponenten arbeiten mit Kommunikationsprotokollen. Ein Kommunikationsprotokoll ist eine Reihe von Regeln, die festlegen, wie Daten gesendet und empfangen werden, und nach diesen Regeln werden Informationen zwischen Geräten in einem Feldbus ausgetauscht. Auf diese Weise wird sichergestellt, dass jedes Gerät mit jedem anderen Gerät kompatibel ist und dass die Informationen korrekt übertragen werden.

3. Echtzeit-Leistung

Ein weiteres wichtiges Prinzip der Feldbus-Komponenten ist die Echtzeitfähigkeit. Anlagen und Betriebsabläufe erfordern eine schnelle und genaue Übertragung von Informationen. Feldbus-Komponenten erreichen dies durch Senden und Empfangen von Daten in Echtzeit.

So werden beispielsweise Daten von Sensoren sofort an das Leitsystem übertragen, so dass das System schnell reagieren kann, indem es z. B. Aktoren entsprechend den Anforderungen bewegt.

Weitere Informationen zu Feldbus-Komponenten

Unterschiede zwischen Feldbus-Komponenten und Industrial Ethernet

Beim Industrial Ethernet unterscheidet man zwischen Informationsnetzwerken, Controller-to-Controller-Netzwerken und Feldnetzwerken. Industrial Ethernet wird für Controller-to-Controller-Netzwerke verwendet, während Feldbus für Feldnetzwerke eingesetzt wird.

Die Zahl der Installationen von Industrial Ethernet hat die Zahl der Installationen von Feldbus-Komponenten im Jahr 2017 umgekehrt. Die fabrikweite IT-Initiative Industrie 4.0, die von Deutschland aus vorgeschlagen wurde, beginnt sich zu realisieren.

カテゴリー
category_fr

valve manuelle

Qu’est-ce qu’une valve manuelle ?

Válvulas Manuales

Une valve manuelle (anglais : Manual Valve, Manual Operated Valve, Hand Operated Valve) est une valve qui s’ouvre, se ferme ou ajuste le degré d’ouverture par une opération humaine (opération manuelle).

Les valves manuelles sont généralement classées, selon leur construction, en robinets à soupape, robinets à bille, robinets-vannes, robinets à papillon, robinets à membrane, etc. Les vannes sont utilisées pour “fermer”, “faire circuler” ou “arrêter” des fluides en ouvrant ou en fermant la voie d’écoulement afin de réguler le débit.

Utilisations des valves manuelles

Les applications typiques des valves manuelles sont l’arrêt des fluides ou la régulation du débit et de la pression. Pour stopper les fluides, on utilise des robinets à bille ou des robinets-vannes. En général, on utilise des vannes à bille pneumatiques car elles sont structurellement plus solides, ne laissent pas de clapet (bille ou disque) dans la voie d’écoulement et sont faciles à ouvrir et à fermer.

Aucun des deux robinets ne peut être utilisé en position mi-ouverte. Il faut veiller à ne pas utiliser la vanne sans ouvrir complètement le clapet en position d’ouverture médiane, car cela provoquerait une cavitation.

La cavitation est un phénomène dans lequel un liquide devient à basse pression et se vaporise, générant des bulles. La cavitation augmente les vibrations, le bruit et les pulsations du débit, et peut endommager la tuyauterie et l’équipement.

Les robinets à soupape sont utilisés pour régler le débit et la pression. Les robinets à soupape sont généralement utilisés pour régler facilement le débit et la pression à l’aide d’une poignée. Cependant, les robinets à soupape ont un chemin d’écoulement complexe dans la boîte (corps) du robinet, ce qui entraîne une perte de pression élevée du fluide.

Principe des valves manuelles

Les valves manuelles sont équipées d’un clapet (boule, disque, etc.) à l’intérieur du corps de vanne. En tournant le clapet de haut en bas ou en le faisant pivoter, le clapet entre en contact avec le siège dans le corps de vanne et ferme la voie d’écoulement. Les vannes manuelles sont actionnées manuellement pour lever, abaisser et faire tourner le clapet.

La chute de pression dans la vanne lorsque le fluide la traverse dépend de la construction de la vanne. La perte de charge est un facteur important dans la sélection des vannes. La perte de charge est calculée à l’aide de la formule de Fanning ci-dessous :

ΔP=4f (ρμ2L/2d)

ΔP : perte de pression (Pa), f : coefficient de frottement, ρ : densité du fluide (kg/m3), μ : vitesse moyenne du fluide (m/sec), L : longueur du tuyau (m), d : diamètre intérieur du tuyau (m).

Types de valves manuelles

Il existe plusieurs types de valves manuelles, selon leur construction et leur fonction. Lors du choix d’une valve manuelle, il est important de tenir compte du type de fluide utilisé (eau, vapeur, air, gaz, produits chimiques, etc.), de la pression et de la température du fluide, de son caractère corrosif ou non, et de l’objectif de l’utilisation (par exemple, fermeture, régulation du débit/de la pression).

1. Le robinet à soupape

Les robinets à soupape sont utilisés comme valves d’arrêt ou d’étranglement car ils sont excellents pour fermer les fluides et réguler le débit et la pression.

La boîte (corps) de la vanne est arrondie et la voie d’écoulement interne est incurvée. Le clapet (disque) dans la boîte à clapets se déplace vers le haut et vers le bas en tournant une poignée fixée à la tige du clapet.

Le clapet entre alors en contact avec le siège et ferme le passage du fluide. Le degré de rotation de la poignée modifie la distance entre le clapet et le siège, ce qui permet de régler le débit et la pression. Il est utilisé comme valve pour ajuster le volume des utilités telles que la vapeur, l’eau de refroidissement, l’eau chaude, l’air comprimé et les lignes de vide où le réglage du débit et de la pression est nécessaire.

2. Le robinet à bille

Les robinets à bille se caractérisent par un clapet (disque) sphérique (en forme de boule) dans la boîte à clapets (corps). Le clapet de vanne est tourné de 90° en tournant la poignée attachée à la tige de la valve pour fermer la voie d’écoulement. Les robinets à bille ont une faible perte de charge car le clapet ne reste pas dans la voie d’écoulement lorsque le robinet est ouvert.

En principe, ils ne sont pas utilisés à mi-ouverture et ne servent pas à réguler le débit ou la pression. Ils sont relativement compacts et peu coûteux, et sont souvent utilisés comme petites vannes d’arrêt, car il suffit de tourner la poignée de 90° pour les fermer.

3. Le robinet-vanne

Les robinets-vannes sont des valves utilisées spécifiquement pour arrêter les fluides. Le clapet (disque) dans la boîte à vannes (corps) monte et descend en tournant une poignée fixée à la tige de la vanne (tige).

Le disque entre alors en contact avec le siège et ferme le fluide. La voie d’écoulement dans la boîte à clapets est droite et la perte de charge est faible. Il est utilisé comme valve d’arrêt, car il n’est pas utilisé dans la position d’ouverture centrale, mais dans les positions ouvertes et fermées.

4. La vanne papillon

Les vannes papillon sont caractérisées par un clapet de vanne en forme de disque (disque) dans le corps de la vanne (corps). Le clapet est tourné en tournant une poignée fixée à la tige de la vanne, ce qui ferme la voie d’écoulement.

Le clapet peut également être semi-circulaire et tourner comme les ailes d’un papillon. Les vannes papillon permettent de régler le débit et la pression en ajustant l’angle de rotation du clapet.

5. La vanne à membrane

Les vannes à membrane ferment la voie d’écoulement à l’aide d’une membrane (diaphragme) en caoutchouc ou en plastique fluoré. Le clapet de vanne (membrane) dans la boîte de vanne (corps) est tourné par une poignée fixée à la tige de vanne (tige), ce qui entraîne une déformation de la membrane vers le haut et vers le bas. Le clapet de vanne entre alors en contact avec le siège et ferme le fluide.

Par rapport à d’autres vannes, la construction est plus simple et le diaphragme isole la voie d’écoulement de la partie motrice, ce qui en fait un excellent produit pour les fluides hautement corrosifs. C’est pourquoi ils sont souvent utilisés dans des domaines tels que les produits pharmaceutiques, les denrées alimentaires et la médecine. Elles ne peuvent pas être utilisées avec des fluides à haute pression et sont principalement utilisées à des pressions inférieures à 0,5 MPa.

Comment choisir une valve manuelle ?

Choisissez une vanne appropriée en tenant compte de l’utilisation, de la perte de charge et du coût. Les vannes manuelles ne nécessitent pas de câblage électrique ou de tuyauterie pneumatique pour l’unité d’entraînement et permettent un fonctionnement de la vanne à moindre coût.

Contrairement aux vannes manuelles, il existe des vannes automatiques, qui sont ouvertes, fermées ou dont l’ouverture est réglée par une unité d’entraînement (actionneur), soit à distance, soit par régulation. L’unité d’entraînement (actionneur) peut être à air comprimé ou à commande électrique.

Les actionneurs à air comprimé peuvent être soit à simple effet, c’est-à-dire que seule l’action d’ouverture est entraînée pneumatiquement et que l’action de fermeture est assurée par un ressort ou un dispositif similaire, soit à double effet, c’est-à-dire que les actions d’ouverture et de fermeture sont toutes deux entraînées pneumatiquement. Dans le cas d’un entraînement électrique, des vérins à vis avec un moteur électrique (moteur) ou des bobines électromagnétiques sont utilisés pour l’action d’ouverture et de fermeture.

Autres informations sur les valves manuelles

Symboles des valves manuelles

Les valves manuelles sont souvent utilisées dans de très grandes installations ou dans des zones étendues. Par conséquent, les dessins et autres informations peuvent être très complexes.

En général, les dessins ne montrent pas la forme complète de la vanne manuelle, mais le symbole de la vanne manuelle.

カテゴリー
category_de

Kabelschutzvorrichtung

Was ist eine Kabelschutzvorrichtung?

KabelschutzvorrichtungenKabelschutzvorrichtungen sind Produkte, die dazu dienen, verschiedene Arten von Kabeln vor Kräften und elektrischen Einwirkungen zu schützen.

Es gibt sie in verschiedenen Formen, z. B. als Halterungen, Buchsen und Spiralschläuche, die zusammenlaufen. Besonders verbreitet ist der Rohrtyp, der sich in Druckknopfverschluss oder Schlitz unterteilen lässt.

Drei typische Rohrtypen sind gewellte, spiralförmige und Netzrohre. Je nach Einsatzort und Verwendungszweck wird der geeignete Typ ausgewählt.

Anwendungen von Kabelschutzvorrichtungen

Kabelschutzvorrichtungen werden häufig zum Bündeln von Türkreuzungen, zum Schutz von Leitungen in Schalttafeln und zum Binden von Kabelbäumen für elektronische Bauteile verwendet. Kabelschutzvorrichtungen zeichnen sich durch ihre einfache Handhabung in Bezug auf Flexibilität und Langlebigkeit sowie durch ihre hervorragenden Eigenschaften zur Bündelung von Leitungen aus. Es werden verschiedene Arten von Kabelschutzvorrichtungen für unterschiedliche Zwecke verwendet.

1. Gewellter Schlauch

Geschlitzte, balgförmige Wellschläuche werden in großem Umfang in Kraftfahrzeugen, Baumaschinen, Landmaschinen, Haushaltsgeräten und Gehäusen verwendet, insbesondere zum Schutz von Kabelbäumen.

2. Spiralschlauch

Spiralrohre werden häufig als Schutzmaterial für Kabel und Schläuche verwendet, die zu beweglichen Teilen von Industriemaschinen geführt werden.

3. Expandierbare geflochtene Schläuche (Netzschläuche)

Expandierbare geflochtene Schläuche (Netzschläuche) zeichnen sich durch ihr geringes Gewicht und ihre Flexibilität aus. Als Kabelschutzvorrichtungen können sie zur flexiblen Bündelung von Kabeln verwendet werden und werden daher für die Verkabelung in Flugzeugen, Konzerten und Theatern sowie für Ton- und Beleuchtungsanlagen eingesetzt.

4. Tüllen

Tüllen werden verwendet, um die Verdrahtung vor Beschädigungen durch Löcher in Schalttafeln zu schützen, z. B. bei Kabelauszügen.

Funktionsweise der Kabelschutzvorrichtungen

Kabelschutzvorrichtungen schützen die Kabel grundsätzlich, indem sie die Kabel mit einem Schlauch oder ähnlichem um die Kabel herum abdecken. Schutzmaterial mit Schlitzen in der Struktur erleichtert das Einführen der Leitungen. Die Teilenummer wird ausgewählt, indem der Innendurchmesser des Drahtes, der in das Schutzmaterial passt, mit dem natürlichen Innendurchmesser des Rohrs verglichen wird. Außerdem ändert das Material des Rohrs die Anwendung, für die es verwendet wird, so dass eine entsprechende Auswahl getroffen werden muss.

1. Polypropylen

Isolierend und nicht elektrisch leitend. Flexibel und rissbeständig, wird häufig für Standardröhren verwendet. Es ist preiswert und in einer Vielzahl von Größen und Farben erhältlich.

2. Nylon

Dieses Material hält Temperaturen von bis zu 100 °C stand und ist isolierend. Es ist tendenziell etwas härter und teurer als Polypropylen. Es ist sehr witterungsbeständig und wird bevorzugt im Freien verwendet.

3. Nylon, das ein Nagetierabwehrmittel enthält

Dieses Material verringert die durch Nagetiere verursachten Schäden bei der Verwendung in Innenräumen und im Freien. Es ist so konzipiert, dass es Reizungen und Schärfe verursacht, wenn es von Ratten angenagt wird, und verhindert Drahtbrüche.

4. Chlortrifluorethylen

Es ist elastisch, gleitfähig und hitzebeständig bis etwa 150 °C. Es ist teuer.

Andere Produkte wie silikongeflochtene und glasgeflochtene Schläuche mit hohen selbstverlöschenden Eigenschaften und einer Hitzebeständigkeit von bis zu 180 °C sind ebenfalls erhältlich.

Merkmale der Kabelschutzvorrichtungen

1. Gewellte Schläuche

Gewellte Schläuche sind eine Art von Verdrahtungsschutzschläuchen, die als Verdrahtungsschutzmaterial verwendet werden. Es gehört auch zu den Kabelbäumen, die mehrere Drähte und Leitungen bündeln, die für die Stromversorgung und die Kommunikation von Signalen usw. verwendet werden. Es bündelt nicht nur Drähte und Leitungen, sondern schützt sie auch vor verschiedenen äußeren Einflüssen.

Die wellenförmige Oberfläche des Schlauchs macht ihn weicher und leichter zu manövrieren als Standardschläuche. Dadurch eignen sie sich für den Einsatz in engen oder unregelmäßig geformten Räumen. Die Schläuche sind in einer Vielzahl von Längen erhältlich, von kurz bis lang, und können mit einer Schere entsprechend den Einsatzbedingungen abgelängt werden.

Die Schläuche werden aus zwei Hauptmaterialien hergestellt: Polypropylen und Nylon. Polypropylen ist sowohl flexibel als auch stark und wird häufig für Innenanwendungen verwendet. Nylon hat höhere Stückkosten, ist aber widerstandsfähiger und eignet sich daher für den Außeneinsatz. Ein weiterer Vorteil von gewellten Schläuchen ist, dass Sie das für Ihre Anwendung am besten geeignete Material wählen können.

2. Spiralschläuche

Spiralschläuche sind für den Schutz von Leitungen vorgesehen. Da es sich um ein widerstandsfähiges Material handelt, wird es häufig für industrielle Kabel und Rohre verwendet. Neben dem Zweck des Kabelschutzes und der Bandagierung wird es auch für die Organisation von Kabeln verwendet. Bei der Organisation von Leitungen ist es sehr einfach, die zu bündelnden Drähte an einer Stelle zu bündeln und den äußeren Rahmen einfach mit dem Schlauch zu umwickeln.

Wie der Name bereits sagt, zeichnen sich Spiralschläuche durch ihre spiralförmige Rohrform aus und werden aus einer Vielzahl von Materialien hergestellt, darunter Kunststoff, Nylon, Polyethylen und Fluorkunststoffe.

3. Elastische geflochtene Schläuche (Netzschläuche)

Netzschläuche sind weiche Schläuche, die in einem speziellen Herstellungsverfahren geflochten werden und sich mit einer Schere überall abschneiden lassen. Er kann sofort abgeschnitten werden, was eine effiziente und einfache Schutzbündelung ermöglicht. Ein weiterer Vorteil ist, dass er beim Schneiden sauber bleibt.

Darüber hinaus verfügt der Netzschlauch über eine geflochtene Struktur, die über einen langen Zeitraum ohne Hitze- oder Feuchtigkeitsstau im Inneren des Schlauchs aufrechterhalten werden kann, und die hohe Netzdichte bietet einen hervorragenden Produktschutz. Diese Schläuche sind ideal, um Drähte in beweglichen Teilen zu schützen.