カテゴリー
category_de

Hplc

Was ist HPLC?

Hplc

HPLC (High Performance Liquid Chromatography) ist eine Methode zur Trennung und zum Nachweis einzelner Verbindungen in einer Probe durch die Wechselwirkung zwischen einer Säule und einer Probe. Sie wird in einer Vielzahl von Branchen eingesetzt, vor allem in der Pharmazie, der Biochemie, der Lebensmittelindustrie und im Umweltbereich, da sie einfach zu handhaben ist und Spurenelemente nachweisen kann.

Da die Peakfläche der Hplc proportional zur Probenkonzentration ist, kann auch die Konzentration der Komponenten in der Probe quantifiziert werden. Das Trennverhalten von Proben in der Hplc hängt von der Säule und der mobilen Phase ab, so dass es notwendig ist, geeignete Analysebedingungen zu schaffen.

Verwendung der Hplc und ihre Anwendungen

Die Hochleistungsflüssigkeitschromatographie (HPLC) ist eine Analysemethode, die die Wechselwirkung zwischen einer Säule und einer Probe nutzt, um die einzelnen Bestandteile einer Probe zu trennen. Sie ist sehr einfach in der Anwendung und kann durch direkte Injektion der Probenlösung oder durch Einbringen der Probenlösung in einen Autosampler zur Stapelverarbeitung analysiert werden.

Die Hplc wird in einer Vielzahl von Branchen eingesetzt. So wird sie beispielsweise im pharmazeutischen Sektor zur Analyse von Spuren von Verunreinigungen und Wirkstoffen, im Lebensmittel-, Getränke- und Umweltsektor zur Analyse von Nähr- und Funktionsstoffen, Zusatzstoffen und Pestizidrückständen sowie in der Biochemie zur Analyse von Proteinen und nukleinsäureverwandten Substanzen eingesetzt.

Grundsätze der Hplc und verwendete Säulen

HPLC und Gaschromatographie (GC) sind Arten der Chromatographie. Die Chromatographie ist eine Methode zur Trennung der in einem Analyten enthaltenen Verbindungen, indem diese durch eine Säule oder ein anderes Medium geleitet und entsprechend der unterschiedlichen Adsorptionsstärke der einzelnen Komponenten getrennt werden.

Die Art und das Ausmaß der Wechselwirkung zwischen den Probenbestandteilen und der Säule hängen von der Art der Säule ab. Bei ODS-Säulen beispielsweise sind die Alkylketten (Octadecylgruppen) auf der Säule modifiziert und die Probe wird durch hydrophobe Wechselwirkungen adsorbiert.

Bei Kieselgelsäulen hingegen adsorbieren Silanolgruppen auf der Oberfläche polare Verbindungen. Es sind auch andere Arten von Säulen erhältlich, darunter mit Phenyl-, Cyano- und Aminogruppen modifizierte Säulen.

Berechnung der Konzentration anhand der Hplc-Peakflächen

Die Peakfläche der Hplc ist proportional zur Konzentration der Probe. Bei Verwendung eines UV-Detektors ändert sich die Peakfläche jedoch in Abhängigkeit vom Absorptionskoeffizienten (Lichtabsorptionsgrad), auch wenn die Konzentration der Probe gleich ist. Bei der Konzentrationsanalyse mittels Hplc ist es daher notwendig, Standards herzustellen, um die Flächen zu vergleichen.

Eine Methode zur Analyse von Konzentrationen ist die “externe Standardmethode”. Bei dieser Methode werden mehrere Standardproben mit bekannten Konzentrationen hergestellt und mittels Hplc analysiert, um die Peakflächen zu bestimmen. Da die Konzentration jeder Probe bekannt ist, kann durch Auftragen des Flächenwerts und der Konzentration eine Gleichung zur Bestimmung der Konzentration aus dem Flächenwert aufgestellt werden.

Die zweite Methode ist die “interne Standardmethode”. Bei dieser Methode wird eine andere chemisch und physikalisch stabile Verbindung als interner Standard zu einer Standardprobe mit bekannter Konzentration hinzugefügt. Nach der Zugabe wird eine Hplc-Analyse durchgeführt, um das Verhältnis der Peakfläche der Standardprobe zu der des internen Standards zu bestimmen. Unter Verwendung des Verhältnisses der zugesetzten Menge des internen Standards als Abszisse und des Verhältnisses der Peakflächen als Ordinate lässt sich eine Kalibrierkurve erstellen.

Hplc-Detektoren und Nachweisgrenzen

Als Hplc-Detektoren stehen eine Reihe von Instrumenten zur Verfügung. Beispiele sind UV-Vis-Detektoren, Fluoreszenzdetektoren und Differential-Brechungsindex-Detektoren (RID). Die Nachweisgrenzen dieser Detektoren sind je nach Probe sehr unterschiedlich. Beispielsweise liegt die Nachweisgrenze für UV-Vis-Detektoren bei etwa 10 Pikogramm (pg) und für Fluoreszenzdetektoren bei 0,1 pg.

Am empfindlichsten ist das Massenspektrometer (MS), das eine geschätzte Nachweisempfindlichkeit von 0,01 pg hat. Die Nachweisgrenze hängt jedoch von der Art und Konzentration der Verbindungen in der Probe und dem Grad der Trennung ab. In einigen Fällen ist eine Derivatisierung, d. h. die Anlagerung einer funktionellen Gruppe an die Probe, die Fluoreszenz erzeugt, erforderlich. Für einen hochempfindlichen Nachweis ist eine Optimierung der Hplc-Analyse, einschließlich der Probenvorbereitung, erforderlich.

カテゴリー
category_de

Gps-Sensor

Was ist ein GPS-Sensor?

Ein GPS-Sensor ist ein Sensor, der im Global Positioning System (GPS), einem weltweiten Ortungssystem, verwendet wird.

GPS ist ein fortschrittliches satellitengestütztes System, das von jedermann, überall und rund um die Uhr genutzt werden kann, um die Position mit hoher Genauigkeit zu messen. GPS-Sensoren haben aufgrund ihrer Beschaffenheit ein breites Anwendungsspektrum, das von der allgemeinen Positionsbestimmung, z. B. bei der Autonavigation, über die Berechnung der genauen Zeit bis hin zu geophysikalischen Beobachtungen reicht.

Verwendungszwecke von GPS-Sensoren

GPS-Sensoren wurden für die Positionsbestimmung in Flugzeugen, Schiffen und bei Vermessungen eingesetzt. Heute, mit der Entwicklung der Informationstechnologie, werden sie auch in Smartphones, Laptops, Autonavigationssystemen, Digitalkameras, Smartwatches und Drohnen eingesetzt.

Neben diesen allgemeinen Ortungsanwendungen wurde auch eine Präzisionsortung im Millimeter- bis Zentimeterbereich realisiert, die für Präzisionsvermessungen und die genaue Messung von Krustenbewegungen eingesetzt wird. GPS-Satelliten werden auch zur Vermittlung von Zeitdaten eingesetzt, die von internationalen Atomuhren weltweit zur Bestimmung der internationalen Standardzeit gemessen werden.

Grundsätze der GPS-Sensoren

GPS nutzt eine Reihe von Satelliten, um seine Position am Boden zu bestimmen, wobei die Entfernung zu jedem Satelliten gemessen wird. Die Entfernung kann mit Hilfe von Funkwellen gemessen werden, die von den einzelnen Satelliten ausgesendet werden und deren Laufzeit bis zum Boden gemessen wird.

GPS-Sensoren empfangen die von den einzelnen Satelliten ausgesendeten Funksignale, berechnen die Entfernung zum Satelliten und bestimmen die Position Die von den GPS-Satelliten ausgesendeten L1- und L2-Wellensignale werden vom GPS-Empfänger des Benutzers erfasst Die Differenz zwischen dem Zeitpunkt der Signalübertragung am GPS-Satelliten und dem Zeitpunkt des Empfangs am Boden beträgt Die Differenz zwischen dem Zeitpunkt der Übertragung des Signals durch die GPS-Satelliten und dem Zeitpunkt des Empfangs am Boden wird berechnet.

Die Geschwindigkeit der Funkwellen ist gleich der Lichtgeschwindigkeit, und mit dem Produkt der Laufzeit lässt sich die Entfernung zwischen dem GPS-Satelliten und dem GPS-Sensor am Boden messen. GPS wurde ursprünglich in den USA für militärische Zwecke entwickelt, wird aber seit seiner weltweiten Freigabe im Jahr 1996 in einer Vielzahl von Situationen eingesetzt.

Zusätzliche Informationen über GPS-Sensoren

1. Wie GPS-Satelliten funktionieren

GPS-Satelliten senden zu bestimmten Tageszeiten zwei Arten von Signalen aus, die als L1- und L2-Wellen bezeichnet werden. Jedes Signal hat eine bestimmte Frequenz, die auf 1575,42 MHz und 1227,60 MHz festgelegt ist; der Grund für die Verwendung von zwei verschiedenen Signalen ist der Ausgleich von Verzögerungen auf dem Übertragungsweg.

Der Kontrollteil (Bodenkontrolle) überwacht die Zeit und die Umlaufbahn der GPS-Satelliten und steuert die Übertragung und den Empfang der Signale entsprechend. Mit Ausnahme der Hauptkontrollstation sind die Satelliten grundsätzlich unbemannt.

2. Anzahl der GPS-Satelliten

Der Standort eines GPS-Sensors kann berechnet werden, wenn die Entfernung zu drei GPS-Satelliten bekannt ist. Die Uhren der GPS-Satelliten verwenden jedoch Atomuhren und sind sehr genau, während die Uhren der Empfänger weniger genau sind. Aus diesem Grund werden in der Regel vier GPS-Satelliten verwendet, um die Anzahl der zu messenden Azimute zu erhöhen und die Genauigkeit zu verbessern.

3. Genauigkeit von GPS

Im Allgemeinen wird die Genauigkeit der Positionsdaten von GPS-Sensoren, die in Smartphones und Autonavigationssystemen verwendet werden, mit einem Fehler von mehreren Metern angegeben. Dies ist teilweise auf die Auswirkungen der atmosphärischen Bedingungen und Hindernisse zurückzuführen.

Bei der Verwendung von Standortinformationen auf Smartphones wird versucht, die Genauigkeit durch die kombinierte Nutzung der Entfernung zu WiFi-Basisstationen, elektronischen Kompassen usw. zu verbessern.

Satellitengestützte Ortungssysteme, einschließlich GPS, werden als GNSS (Global Navigation Satellite Systems) bezeichnet, einschließlich QZSS (Quasi-Zenith Satellite), der japanischen Version von GPS, die allgemein als MICHIBIKI bekannt ist.

4. RTK

RTK (Real Time Kinematic) ist eine neue Ortungsmethode, die die Genauigkeit von GPS-basierten Ortungsdiensten verbessert: Positionsdaten von GPS werden von zwei Empfängern, einer Referenzbasisstation und einer Mobilstation, empfangen, und Positionsabweichungen werden anhand der Unterschiede korrigiert.

Die Genauigkeit der Positionsdaten kann auf Fehler von wenigen Zentimetern erhöht werden, und die Erwartungen an den Einsatz der hochpräzisen RTK-Positionsdaten in Smartphones und Drohnen sind hoch, aber aufgrund der Kosten und anderer Probleme wird sie vorerst wohl nur im industriellen Bereich eingesetzt.

In Kombination mit IKT (Informations- und Kommunikationstechnologie) basierter automatischer Fahrtechnik und anderen Technologien wird dies die Möglichkeit eröffnen, eine Reihe neuer Dienste zu realisieren, darunter neue Verkehrsdienste, intelligente Landwirtschaft, intelligentes Bauen und Drohnenlieferdienste.

5. GPS-Sender

GPS-Sender sind Geräte, die Standortinformationen aus GPS-Signalen berechnen und an bestimmte Ziele übermitteln. Bei der Echtzeitverfolgung werden die Standortinformationen automatisch und regelmäßig vom GPS-Sender übertragen oder im Sender gespeichert, so dass nicht nur der aktuelle Standort, sondern auch die Route überprüft werden kann.

Bei der manuellen Suche kann der Benutzer nur dann nach einem Standort suchen, wenn er sicher sein will, wo er sich befindet. Zu den Anwendungen gehören die Überwachung der Aktivitäten von älteren Menschen und Kindern, die Diebstahlsicherung von Smartphones, Autos und Fahrrädern, verlorene und vergessene Gegenstände sowie die Sicherheitsbestätigung beim Bergsteigen.

カテゴリー
category_de

Elisa-Kits

Was ist ein ELISA-Kit?

ELISA-Kits sind eine Art antikörperbasierter Immunoassay (Immunoassay) zur Quantifizierung durch ELISA (Enzyme Linked Immunosolvent Assay).

ELISA ist ein Akronym für Enzyme Linked Immunosolvent Assay, eine Methode zur Quantifizierung von Spurenmengen biologischer Substanzen durch Antigen-Antikörper-Reaktionen. Es wird manchmal auch als Enzymimmunoassay oder enzyme-linked immunosorbent assay übersetzt, ist aber nicht gebräuchlich.

Anwendungen von ELISA-Kits

ELISA-Kits werden häufig im Bereich der Biologie verwendet, da sich Spuren biologischer Substanzen durch Antigen-Antikörper-Reaktionen mit hoher Genauigkeit nachweisen lassen. Sie werden beispielsweise zur Messung von Blutproteinen wie Zytokinen, Chemokinen und Wachstumsfaktoren oder in der Immuno-Onkologie zur Messung löslicher Immun-Checkpoint-Moleküle zur Bestimmung des Status der Krebsimmunität verwendet.

In der Neurobiologie wird er zur Quantifizierung von Aβ-, Tau- und α-Synuclein-Proteinen verwendet, die bekanntermaßen Neuropathien verursachen. Weitere ELISA-Kits können aus unserem umfangreichen Angebot ausgewählt werden, darunter phosphorylierungsspezifische ELISA-Kits und Immunglobulin-ELISA-Kits, je nach Art und Zweck der Forschung. Die kompetitive ELISA-Analyse eignet sich auch für die Messung von Histamin, Pestiziden und Dioxinen.

Funktionsweise der ELISA-Kits

Bei einem ELISA wird ein Antikörper oder eine antigene Substanz verwendet, die sich spezifisch an die zu messende Substanz bindet (Antigen-Antikörper-Reaktion). Anschließend wird ein enzymmarkierter Antikörper (oder Antigen) verwendet, um die Enzymaktivität durch Absorptionsmessung nachzuweisen und zu bewerten.

Die Messung der Enzymaktivität ermöglicht die Quantifizierung der Enzymkonzentration in Lösung, der an der Antigen-Antikörper-Reaktion beteiligten Substanzen in den Reagenzien und der interessierenden Substanz. Es gibt vier Hauptmethoden: direkte, indirekte, Sandwich- und kompetitive Methode.

1. Direkte Methode

Bei dieser Methode wird das Zielantigen (oder der Zielantikörper) in einer festen Phase auf einer Mikroplatte aufgebracht, und das markierte Antigen oder der Antikörper wirkt direkt darauf ein. Nachdem das Antigen oder der Antikörper auf die Mikroplatte eingewirkt hat, wird sie gewaschen und die Enzymaktivität auf der Mikroplatte nachgewiesen. Da keine sekundären Antikörper erforderlich sind, kann dies in einem einzigen Schritt und in kurzer Zeit durchgeführt werden.

2. Indirekte Methode

Zunächst wird ein für das gewünschte Antigen spezifischer Antikörper auf ein festes Zielantigen auf der Mikrotiterplatte aufgebracht. Der Antikörper wird dann mit einem enzymmarkierten sekundären Antikörper zur Reaktion gebracht, und schließlich wird die Enzymaktivität des Enzyms auf dem markierten sekundären Antikörper nachgewiesen. Sie zeichnet sich durch eine höhere Empfindlichkeit aus, erfordert aber mehr Zeit als die direkte Methode.

3. Sandwich-Methode

Eine Mikroplatte, die mit einem Antikörper beschichtet ist, der an die Zielsubstanz in der Probe bindet, wird verwendet, um mit der Probe als Antigen zu reagieren. Die Probe wird dann mit einem anderen enzymmarkierten Antikörper zur Reaktion gebracht, der überschüssige Antikörper wird abgewaschen und die Enzymaktivität auf der Mikroplatte wird gemessen.

Die zur Verfestigung verwendeten Antikörper und der enzymmarkierte Antikörper müssen unterschiedliche Antigenerkennungsstellen haben. Der Vorteil der Sandwich-Methode ist, dass die Spezifität der Reaktion höher ist als bei der direkten Methode, was zu einer höheren Nachweisgenauigkeit führt.

4. Kompetitive Methode

Ein Antikörper, der an die Zielsubstanz bindet, ist festphasig und interagiert gleichzeitig mit einem markierten Antigen bekannter Konzentration und der Probe. Enthält die Probe mehr von der Zielsubstanz, nimmt die Extinktion ab, da weniger enzymmarkiertes Antigen zur Bindung an den Antikörper zur Verfügung steht.

Umgekehrt steigt die Absorption, wenn die Probe weniger von der Zielsubstanz enthält, weil mehr enzymmarkiertes Antigen zur Bindung an den Antikörper zur Verfügung steht. Mit der kompetitiven Methode können kleine Moleküle gemessen werden, die sich mit der Sandwich-Methode nur schwer nachweisen lassen, oder wenn es nur eine Bindungsstelle für den Antikörper gibt.

Auswahl eines geeigneten ELISA-Kits?

Wie bereits erwähnt, erfolgt der Nachweis über spezifische Antigen-Antikörper-Reaktionen. Daher ist die erste Voraussetzung, ein Produkt zu verwenden, das die richtige Kombination von Reagenzien für die Probe verwendet. Darüber hinaus hat jede Methode, ob direkt, indirekt, Sandwich oder kompetitiv, ihre Vor- und Nachteile, so dass je nach Zweck der Messung die günstigste ausgewählt werden sollte.

Die Verfestigung auf Mikroplatten erfolgt im Allgemeinen durch hydrophobe Wechselwirkung oder kovalente Bindung, aber es ist wichtig, die richtige Mikroplatte entsprechend dem Bindungsmodus auszuwählen. Es sind zahlreiche Typen erhältlich, darunter hydrophobe und hydrophile Typen sowie solche, die mit Amino- und Carboxylgruppen für kovalente Bindungsanwendungen ausgestattet sind.

カテゴリー
category_de

Frp-Platten

Was ist FRP-Platte?

FRP-Platten sind faserverstärkte Kunststoffplatten, die für die Reparatur von Strukturen und Stoßfängern verwendet werden.

FRP ist eine Abkürzung für “Fibre Reinforced Plastics” (faserverstärkte Kunststoffe), und als Verstärkungsfasern werden Glasfasern verwendet. Die FRP-Platten lassen sich leicht mit einer Schere oder einem Teppichmesser zuschneiden und sind leicht zu bohren und zu lackieren.

FRP-Platten werden nicht nur zur Verstärkung, sondern aufgrund ihrer hervorragenden Wasserdichtigkeit, Isolierung, Wetter- und Korrosionsbeständigkeit auch als Außenschutzplatten verwendet. Sie sind besonders nützlich für den Schutz von Gebäuden und Schiffen in Meeresnähe, wo Salzschäden auftreten können.

Verwendungszwecke von FRP-Platten

FRP-Platten werden zur Verstärkung großer Gebäudestrukturen verwendet. Sie werden zur Reparatur und Verlängerung der Lebensdauer von Brücken, Stegen, Beleuchtungsmasten, Kanälen, Rohren, Lagertanks usw. eingesetzt. Wo ein hohes Maß an Sicherheit erforderlich ist, wie z. B. bei Fußgängerbrücken und humanitären Brücken, kann auch die Korrosionsbeständigkeit des Grundmetalls erhöht werden.

Außerhalb von Bauwerken werden FRP-Platten auch für die Reparatur von Stoßstangen, Schiffen und Kanus im Freien verwendet; FRP-Platten eignen sich auch für Oberflächen wie Schalttafeln, Dächer, Schleusentore und Schwimmbecken, da sie wasserdicht, isolierend und hitzebeständig sind.

FRP-Platten lassen sich auf Metall, Holz, Beton und Kunststoff befestigen. Sie eignen sich jedoch nicht für die Befestigung auf Polyethylen, Polycarbonat, Polypropylen, Glas usw.

Das Prinzip der FRP-Platten

FRP-Platten basieren hauptsächlich auf einem Vinylesterharz, dem Epoxyacrylat, das unter ultraviolettem Licht aushärtet und mit Glasfasern verstärkt ist, und werden als Verbundwerkstoff bezeichnet, wobei das Grundmaterial als Matrix bezeichnet wird. Bei Verbundwerkstoffen können die Eigenschaften des Materials in Abhängigkeit vom Gehalt der Verstärkungsfasern variiert werden.

Bei FRP-Platten wird die Matrix durch UV-Licht gehärtet; wenn die FRP-Platte an der zu bebauenden Fläche angebracht und mit UV-Licht bestrahlt wird, kann sie in die Form gebracht werden, an der sie angebracht ist.

Eigenschaften von FRP-Platten

FRP-Platten zeichnen sich dadurch aus, dass sie leicht zu verlegen sind. Die Platten können mit einer Schere geschnitten werden, aber nach dem Aushärten sind sie stark genug, um große Gebäudestrukturen zu verstärken. Sie zeichnen sich außerdem durch eine ausgezeichnete Wasser-, Chemikalien- und Hitzebeständigkeit aus. Die Aushärtung erfolgt durch UV-Bestrahlung. Neben der Verwendung von UV-Bestrahlungsgeräten können einige Produkte auch durch Sonneneinstrahlung ausgehärtet werden.

Für die Verwendung in lebensmittelbezogenen Produkten sind auch Produkte mit ausgezeichneten Umwelteigenschaften erhältlich, z. B. solche, die keine VOC-kontrollierten Substanzen oder Formaldehyd enthalten, und es ist auch möglich, Produkte zu wählen, die dem Lebensmittelhygienegesetz, den Normen für Geräte und Behälter und Verpackungen entsprechen.

Weitere Informationen über FRP-Platten

Wie werden FRP-Platten eingebaut?

Wenn Sie eine FRP-Platte verlegen, befestigen Sie die FRP-Platte zunächst auf dem Untergrund, um Lufteinschlüsse zu vermeiden. Es ist darauf zu achten, dass der Untergrund frei von Staub, Schmutz und anderen Fremdkörpern sowie Öl ist. Wenn die Platte UV-Licht ausgesetzt wird, härtet das UV-härtende Harz im Inneren aus und passt sich der Form des Untergrunds an.

Die Aushärtungszeit des Harzes mit UV-Licht beträgt etwa 20 Minuten, während sie bei Sonnenlicht etwa 35 Minuten oder mehr beträgt. Da die Menge des UV-Lichts je nach Jahreszeit und Wetterbedingungen variiert, kann es bei bewölktem Wetter zu einer schlechten Aushärtung kommen. In solchen Fällen ist ein Vorversuch zuverlässiger.

Entfernen Sie nach dem Auftragen die Schutzfolie. Da die Folie unter ultraviolettem Licht aushärtet, muss sie während der Montage mit einer Plastikfolie oder ähnlichem geschützt werden, um zu verhindern, dass Sonnenlicht oder andere Lichtquellen die Folie belichten. Auch bei der Verwendung von UV-Licht ist die Verwendung einer UV-Schutzbrille unerlässlich.FRP-Platten enthalten Styrol, das Geruchsprobleme verursachen kann. Einige Produkte haben einen reduzierten Styrolgehalt.

カテゴリー
category_de

Gnss-Empfänger

Was ist GNSS-Empfänger?

Gnss Empfänger

Ein GNSS-Empfänger ist ein Gerät, das Signale von Satelliten empfängt und sie in Informationen über den Breiten- und Längengrad des Empfangspunktes umwandelt.

GNSS ist eine Abkürzung für Global Navigation Satelite System, was so viel wie Globales Navigationssatellitensystem bedeutet. Es handelt sich um ein System, das Satelliten zur Messung von Positionsdaten verwendet.

Das Global Positioning System (GPS) in den USA ist das am häufigsten verwendete GNSS. In Japan werden QZSS (Quasi-Zenith Satellite System: MICHIBIKI), Galileo in Europa, GLONASS in Russland, BeiDou in China und andere Satellitensysteme von einzelnen Ländern gebaut.

Verwendungszwecke von GNSS-Empfängern

GNSS-Empfänger werden in standortbezogenen Diensten eingesetzt. GPS ist uns aus dem täglichen Leben vertraut und für die Navigation im Auto bekannt.

Heute wird es auch in Smartphones eingesetzt. Drohnen, die in den letzten Jahren immer beliebter geworden sind, sind ebenfalls mit GNSS-Empfängern ausgestattet und nutzen diese zur Steuerung ihrer Position.

Beispiele für GNSS-Anwendungen sind die Bereitstellung von Informationen über Bus- und Taxidienste, die Ortung von Kindern und älteren Menschen sowie die Ortung von Baumaschinen. Im Rahmen der Katastrophenvorsorge werden Bodenpositionen an natürlichen Hängen gemessen, um Anzeichen für plötzliche Erdrutsche zu erkennen.

Grundsätze von GNSS-Empfängern

Zu den Prinzipien von GNSS-Empfängern gehören die Einzelortung und die relative Ortung.

1. Einzelpositionierung

Bei der Einzelpositionierung empfängt ein GNSS-Empfänger Signale von vier oder mehr Satelliten und erhält so Positionsinformationen. Die von den Satelliten gesendeten Signale enthalten Informationen über den Sendezeitpunkt, und die Entfernung zum Satelliten wird berechnet, indem die Differenz zwischen dem Sendezeitpunkt und der Zeit, die das Signal benötigt, um beim GNSS-Empfänger anzukommen, ermittelt und mit der Signalgeschwindigkeit multipliziert wird.

In ähnlicher Weise wird die Entfernung von drei oder mehr anderen Satelliten berechnet, um die Position des GNSS-Empfängers zu ermitteln. Theoretisch reichen drei Satelliten aus, um die Position eines GNSS-Empfängers durch Triangulation zu bestimmen, aber es werden vier oder mehr Satelliten benötigt, um Fehler auszugleichen.

2. Relative Positionsbestimmung

Die relative Positionsbestimmung kann in DGPS (Differential-GPS) und interferometrische Verfahren unterteilt werden.

DGPS-Verfahren
Bei der DGPS-Methode werden mehrere GNSS-Empfänger eingesetzt, die Signale von vier oder mehr Satelliten empfangen, um hochgenaue Positionsdaten zu erhalten. Mehrere GNSS-Empfänger führen eine unabhängige Positionsbestimmung durch, und die Positionsinformationen jedes Empfängers werden verwendet, um eine Position unter Berücksichtigung gemeinsamer Fehler zu erhalten.

Interferometrisches Verfahren
Wie bei der DGPS-Methode werden auch bei der Interferometermethode mehrere GNSS-Empfänger verwendet und die Positionsinformationen durch Ausnutzung der Phasendifferenz zwischen den von den einzelnen Empfängern empfangenen Signalen ermittelt.

Weitere Informationen über GNSS-Empfänger

1. Inländischer Ortungssatellit MICHIBIKI

GPS ist ein amerikanisches satellitengestütztes Ortungssystem, das ursprünglich für militärische Zwecke entwickelt wurde. Das erste japanische GNSS-System, MICHIBIKI, wurde 2010 in Betrieb genommen; ein System mit vier GNSS-Satelliten wird 2018 in Betrieb genommen und ein System mit sieben GNSS-Satelliten wird eingerichtet.

MICHIBIKI wird als Quasi-Zenith-Satellitensystem bezeichnet und nutzt eine Quasi-Zenith-Umlaufbahn, die Japan und andere Teile Asiens und Ozeaniens überfliegt. Er fliegt auf einer asymmetrischen Nord-Süd-Umlaufbahn, um so lange wie möglich in der Nähe Japans zu bleiben, wobei er sich etwa 13 Stunden in der nördlichen Hemisphäre und etwa 11 Stunden in der südlichen Hemisphäre aufhält.

MICHIBIKI wird in Verbindung mit GPS eingesetzt und ergänzt GPS, um eine genauere und stabilere Positionierung zu erreichen.

2. Beispiele für MICHIBIKI-Anwendungen

MICHIBIKI ist ein System, das die Nutzung von hochgenauen Positionsdaten ermöglicht und auch die Positionierung in der cm-Klasse unterstützt. Daher werden verschiedene Möglichkeiten der Nutzung des Systems in Betracht gezogen. In der Landwirtschaft zum Beispiel, wo sich ein Arbeitskräftemangel abzeichnet, ist es ein automatisches Fahrsystem für Landmaschinen.

Im Bereich der Verkehrssicherheit wird das System für den Einsatz beim automatisierten Fahren von Fahrzeugen, bei der automatischen Ermittlung von Verstößen gegen die Straßenverkehrsordnung und bei der Unterstützung der Schneeräumung im Winter in Betracht gezogen. Im Bereich der Sozialfürsorge soll das System sehbehinderten Menschen helfen, selbständig zu gehen.

カテゴリー
category_de

Dpss-Laser

Was ist ein Dpss-Laser?

Dpss-Laser sind LD-gepumpte Festkörperlaser (Diode Pumped Solid State Laser), die eine Art von Festkörperlaser sind, der einen Hochleistungs-Halbleiterlaser (Laserdiode; kurz LD) als Pumplicht verwendet.

LDs können Licht mit einer einzigen Wellenlänge emittieren und können daher effizient gepumpt werden.

LDs erzeugen nur wenig Wärme und haben eine lange Lebensdauer, wodurch sie kompakt und leicht sind und die Lebensdauer leicht verlängert werden kann.

Anwendungen für Dpss-Laser

Dpss-Laser werden als Lichtquellen für hochauflösende Bildgebungsgeräte, konfokale Mikroskope und DNA-Sequenzierung in der Biotechnologie sowie als Lichtquellen für Fluorometer und Raman-Spektrometer in der Messtechnik und für Hochgeschwindigkeits-Partikelmessungen eingesetzt. Tief-ultraviolette Single-Longitudinal-Mode-Dpss-Laser werden auch als Lichtquellen in UV-Raman-Spektrometern und in der Fluoreszenzbildgebung eingesetzt.

Außerhalb der Messtechnik werden sie aufgrund ihrer hohen Ausgangsleistung und ihres kompakten Oszillators auch als Lichtquellen für die Laserbearbeitung eingesetzt.

Grundsätze von Dpss-Lasern

Dpss-Laser können auf vielfältige Weise konfiguriert werden, doch hier einige Beispiele.

Der Dpss-Laser besteht aus einer LD als Anregungsquelle, einem Linsensystem zur Fokussierung des LD-Lichts auf einen Laserkristall, einem Laserkristall zur Oszillation des Lasers, einem nichtlinearen Kristall zur Wellenlängenkonversion, einem Resonanzspiegelpaar zwischen dem Laserkristall und dem nichtlinearen Kristall und einer Linse zur Kollimation des Ausgangslaserlichts.

Für den Laserkristall werden Nd:YVO4 und Yb:YAG verwendet, für den nichtlinearen Kristall KTP und BBP.

Wird beispielsweise Nd:YVO4 als Laserkristall verwendet, kann er durch eine LD mit einer Wellenlänge von 808 nm angeregt werden und ein Infrarotlicht von 1064 nm aussenden. Dieses IR-Licht kann durch den nichtlinearen Kristall KTP in ein grünes Laserlicht von 532 nm umgewandelt werden. Außerdem kann das Licht von 532 nm durch den nichtlinearen BBP-Kristall in einen UV-Laserstrahl von 266 nm umgewandelt werden.

Dpss-Laser können durch Wellenlängenkonversion UV- und sichtbares Licht bei verschiedenen Wellenlängen ausgeben.

カテゴリー
category_de

DLC-Beschichtung

Was ist eine DLC-Beschichtung?

Dlc Beschichtung

Die DLC-Beschichtung ist eine Oberflächenbehandlungstechnologie mit hervorragenden Eigenschaften wie hohe Härte, Verschleißfestigkeit, geringe Reibung und Adhäsionsbeständigkeit.

DLC ist eine Abkürzung für Diamond like Carbon.

Anwendungen von DLC-Beschichtungen

DLC-Beschichtungen werden hauptsächlich zur Verbesserung der Verschleißfestigkeit von Metallen eingesetzt. Sie sollen ein Festfressen verhindern und die Haltbarkeit verbessern. Die wichtigsten Anwendungen sind folgende:

  1. Beschichtung von Automotoren zur Verbesserung der Haltbarkeit
  2. Verschleißschutzschichten auf Schneidwerkzeugen
  3. Haltbarkeitsverbessernde Beschichtungen auf Industrierobotern
  4. Beschichtungen auf Wellen und Lagern von Bearbeitungszentren

Funktionsweise der DLC-Beschichtung

DLC wird aus Diamant- und Kohlenstoffkomponenten synthetisiert. Die Synthese erfolgt durch Einspritzen von Acetylengas und Erzeugung eines Plasmas bei hohen Frequenzen und Spannungen, um es in Kohlenstoff und Wasserstoff aufzuspalten, wobei der Wasserstoff entladen wird. Der positiv ionisierte Kohlenstoff haftet an dem negativ geladenen Produkt und es bilden sich diamantähnliche Nichtkristalle auf der Oberfläche des Produkts. Die Dlc-Beschichtung verringert den Reibungskoeffizienten vieler Werkstoffe und trägt so zu geringeren CO2-Emissionen bei.

Weitere Informationen zu DLC-Beschichtungen

1. Abscheidungsmethoden für DLC-Beschichtungen

Die Eigenschaften von DLC-Beschichtungen hängen von der Abscheidungsmethode ab. Es gibt drei Haupttypen von Abscheidungsmethoden:

CVD-Verfahren
Die Abscheidungsgeschwindigkeit ist schneller als bei der PVD und es sind komplexe Geometrien möglich. Die wasserstoffhaltige Abscheidung kann auch für dickere Schichten verwendet werden.
PVD-Verfahren
Wasserstofffreie Abscheidungen und Abscheidungen mit hoher Härte sind möglich. Es hat eine starke Haftung auf dem Substrat und kann für leitfähige Materialien verwendet werden, aber dickere Schichten sind schwer zu erreichen.
Plasma-Ionen-Implantationsverfahren
Die Abscheidung bei Raumtemperatur ist möglich, und die Schichten können auf Gummi, Harz und Keramik aufgebracht werden.

2. Nachteile der DLC-Beschichtung

Die DLC-Beschichtung hat nicht nur Vorteile, sondern auch Nachteile:

  1. Leichtes Abplatzen und Einmischen von Bruchstücken 
  2. Schlechte Haftung auf dem Gewebe
  3. Beschränkung auf Beschichtungen von bis zu 2 Mikrometern 
  4. Die Härte nimmt mit zunehmendem Wasserstoffgehalt ab 

3. DLC-Beschichtung auf Aluminium

DLC-Beschichtungen auf Aluminium können Verschleißfestigkeit und geringe Reibung bieten. Diese Eigenschaft ermöglicht es beispielsweise, das Gewicht von Maschinenteilen zu reduzieren. Da Aluminiumlegierungen oxidationsanfällig sind und viele verschiedene Elemente enthalten, muss die richtige Zwischenschicht für die Schnittstelle zwischen der DLC-Schicht und dem Substrat gewählt werden. Ein Beispiel für die Anwendung von DLC-Beschichtungen auf Aluminiumlegierungen ist die Beschichtung von Motorkomponenten, aber die geringe Haftung, die sich aus der geringen Affinität zwischen Kohlenstoff und Aluminium ergibt, hat sich als Herausforderung erwiesen.

4. DLC-Beschichtungen und hochschmierfähige Öle auf Molybdänbasis

Es wurde über Fälle von Abnutzung von DLC-Beschichtungen beim Gleiten mit Ölen berichtet, die Molybdändialkyldithiocarbamat, einen Reibungsmodifikator, enthalten. Obwohl DLC-Beschichtungen in trockenen Umgebungen eine niedrige Reibung aufweisen, erreichen sie nur selten eine extrem niedrige Reibung, wenn sie als Grenzschmiermittel verwendet werden, wie es der Fall ist. Wenn Molybdändisulfid-Bindungsvorhänge verwendet werden, sind sie trocken und reibungsarm, aber wenn sie als Grenzschmiermittel verwendet werden, sind sie aufgrund ihrer geringen Verschleißfestigkeit weniger dauerhaft gegen Reibung.

5. Abblättern der DLC-Beschichtung

Obwohl DLC-Beschichtungen auf Aluminium und Messing verarbeitet werden können, kann die DLC-Beschichtung bei hoher Belastung abblättern. Um ein Abblättern zu vermeiden, muss das Substrat eine hohe Härte aufweisen; eine Technik, die ein Abblättern der DLC-Beschichtung verhindert, ist die Ionenimplantation. Bei dieser Methode können die abgeschiedenen Ionen in die Substratoberfläche eindringen und eine hohe Adhäsion an der abgeschiedenen Schicht erreichen.

カテゴリー
category_de

DFB-Laser

Was ist ein DFB-Laser?

Ein DFB-Laser ist eine Art von Laserdiode mit konstanter Wellenlänge. DFB steht für Distributed FeedBack, was übersetzt verteilte Rückkopplung bedeutet. Durch die Erzeugung von Beugungsgittern an den Grenzen der Diodenschichten kann nur die Wellenlänge des von der aktiven Schicht emittierten Lichts, die doppelt so groß ist wie der Abstand zwischen den Gittern, verstärkt und ausgegeben werden. Die Ausgangswellenlänge eines DFB-Lasers ist bei einer konstanten Wellenlänge stabil, während die Wellenlänge einer normalen Laserdiode durch den angelegten Strom, die Betriebsumgebung oder Modulation gestört wird.

Anwendungen für DFB-Laser

DFB-Laser werden hauptsächlich in der optischen Kommunikation über große Entfernungen und mit hoher Kapazität eingesetzt. Der Grund für ihren Einsatz in der optischen Kommunikation ist, dass sie auch bei hohen Stromstärken, Betriebsumgebungen und schneller Modulation eine stabile Ausgangsleistung bei einer konstanten Wellenlänge beibehalten können. Weitere Anwendungen von DFB-Lasern sind die Endoskopie des Dickdarms und der Speiseröhre, die Strukturanalyse mit Hilfe der Raman-Spektroskopie, die Wellenlängenumwandlung, die Gasprüfung usw. Bei der Auswahl eines DFB-Lasers müssen der zulässige Strom, die Ausgangswellenlänge, die Anschlussklemmen, die entsprechende Betriebsumgebung und die Größe berücksichtigt werden.

Funktionsweise von DFB-Lasern

In diesem Abschnitt wird die Funktionsweise von DFB-Lasern beschrieben. Wie normale Laserdioden haben DFB-Laser eine p-Typ-Mantelschicht, eine n-Typ-Mantelschicht und eine aktive Schicht zwischen diesen Schichten. p-Typ-Mantelschichten sind mit einer positiven Elektrode verbunden, n-Typ-Mantelschichten mit einem n-Typ-Substrat, und das n-Typ-Substrat ist mit einer negativen Elektrode verbunden . An den Seiten dieser Schichten befinden sich Reflektoren. Der Dfb-Laser wird so hergestellt, dass die Grenzfläche zwischen der p-Typ-Mantelschicht und der aktiven Schicht ein Beugungsgitter bildet.

Während des Betriebs wird an den Elektroden eine Vorwärtsspannung angelegt. Die angelegte Spannung bewirkt, dass Elektronen und Löcher aus den jeweiligen Mantelschichten in die aktive Schicht eintreten und Licht emittieren, wenn diese Ladungen rekombinieren. Dieses Licht wird durch die Grenzen der aktiven Schicht und die Reflektoren verstärkt. Das vom Beugungsgitter reflektierte Licht reflektiert dann nur eine bestimmte Wellenlänge, was zur Verstärkung nur einer einzigen Lichtwellenlänge führt. Das verstärkte Licht wird aus dem DFB-Laser extrahiert.

Temperatureigenschaften von DFB-Lasern

DFB-Laser zeichnen sich durch ihre extrem temperaturstabilen Wellenlängen aus: Im Bereich des Wellenlängen-Multiplexing und der kohärenten optischen Kommunikation wie WDM ist eine schmale spiegelnde Wellenlängen-Linienbreite wichtig, um das Übersprechen zwischen den Wellenlängen zu unterdrücken. Ein weiterer wichtiger Faktor ist die Temperaturkontrollierbarkeit der Wellenlänge.

Bei allgemeinen DFB-Lasern beträgt der Wellenlängengradient in Abhängigkeit von der Temperatur etwa 0,1 nm/ °C. Die Oszillationswellenlänge wird durch zwei Parameter bestimmt und gesteuert: die Wellenlängenanpassung durch die Periode des DFB-Lasergitters und diesen Temperaturgradienten.

Um den Einfluss der Umgebungstemperatur zu vermeiden, erfolgt die Temperaturkontrolle in der Regel über eine Überwachungsklemme wie einen Temperatur-Thermistor und ein externes Peltier-Element usw. Um Kosten und Stromverbrauch zu senken, wird jedoch auch aktiv an DFB-Lasern geforscht, die keine externe Temperaturkontrolle benötigen, sowie an Packaging-Methoden und der Verwendung neuer Verbindungshalbleitermaterialien wie Al-Basis und anderen. An DFB-Lasern, die keine externe Temperaturkontrolle benötigen, wird ebenfalls aktiv geforscht, ebenso wie an Packaging-Methoden und neuen Verbindungshalbleitermaterialien wie Al-Basis und anderen.

1550-nm-Wellenlängen für DFB-Laser

In der Welt der optischen Langstreckenkommunikation werden Wellenlängen mit möglichst geringen Übertragungsverlusten in optischen Fasern gewählt, um die Verluste bei der Kommunikation zu minimieren. Optische Fasern aus Quarz haben je nach Wellenlänge des durchgelassenen Lichts sehr unterschiedliche Verluste, und im Allgemeinen werden häufig Wellenlängen im Bereich von 1,3μ und 1,5μ verwendet. Insbesondere die Wellenlänge von 1550 nm ist eine typische Wellenlänge für langwellige DFB-Laser, da sie die geringsten Verluste aufweist.

Andere Arten von Lasern mit einer Wellenlänge von 1550 nm umfassen DFB-Laser mit einem λ/4-phasenverschobenen Beugungsgitter (Grating), das im Prinzip die Laserschwingung in einer einzigen Mode ermöglicht, und DBR-Laser, bei denen das Beugungsgitter von der Ober- und Unterseite der aktiven Schicht entfernt ist.

Vergleich mit FP-Lasern

Ein Halbleiterlaser, der oft mit DFB-Lasern verglichen wird, ist der Fabry-Perot-Laser (FB).

Die Endfläche des FP-Lasers ist eine spiralförmige Oberfläche, was bedeutet, dass sie als Spiegelfläche mit der gleichen Kristallorientierung verwendet werden kann. Der Laser schwingt in einem Resonanzspektrum bei einer bestimmten Wellenlänge, wobei ein wesentlicher Unterschied zum DFB-Laser darin besteht, dass es für FP-Laser schwierig ist, in einem vollständig einzigen Modus zu schwingen.

FP-Laser werden in optischen Aufnehmern wie CDs und DVDs, Laserdruckern usw. eingesetzt.

カテゴリー
category_de

CV Kabel

Was ist ein CV Kabel?

Cv Kabel

CV Kabel werden in der Industrie zur Stromübertragung verwendet. Sein offizieller Name lautet mit vernetztem Polyethylen isoliertes Vinylmantelkabel.

Wie der Name schon sagt, wird bei diesem Kabel vernetztes Polyethylen als Isoliermaterial und Vinyl als Mantelschicht verwendet.

Anwendungen von CV Kabeln

CV Kabel werden hauptsächlich für die Übertragung von Elektrizität verwendet. Wenn Sie in städtischen Gebieten unterwegs sind, werden Sie wahrscheinlich Strommasten sehen. Wenn Sie die Masten beobachten, werden Sie Kabel sehen, die als Stützen an den Masten hängen. Dabei handelt es sich um CV Kabel.

CV Kabel haben einen Kerndraht, der mit einem Vinyl- oder Polyethylenmantel umhüllt ist, wodurch sie regen-, wind- und sonnenlichtbeständig sind. Sie werden häufig im Freien verwendet, wo sie direkt dem Regenwasser ausgesetzt sind. In normalen Häusern wird der Strom über Kabel mit Vinylummantelung verteilt. CV Kabel sieht man daher nie im Inneren des Hauses.

Funktionsweise von CV Kabeln

CV Kabel für hohe Spannungen und darüber bestehen hauptsächlich aus einem Kerndraht, einer halbleitenden Schicht, einer vernetzten Polyethylenschicht, einer Kupferbandschicht und einer Vinylmantelschicht sowie weiteren Schichten. Der Kerndraht ist die Schicht, durch die der Strom fließt. Sie besteht hauptsächlich aus Kupfer oder Aluminium. In vielen Fällen werden Litzen verwendet, die aus mehreren dünnen Kupferdrähten bestehen.

Der Kerndraht ist von einer halbleitenden Schicht umgeben, die aus kohlenstoffreichen Polymeren und anderen Materialien besteht. Die halbleitende Schicht füllt den Spalt zwischen der vernetzten Polyethylenschicht und dem Kerndraht aus und verhindert so, dass die vernetzte Polyethylenschicht durch die Spannung beschädigt wird. Die vernetzte Polyethylenschicht ist eine Isolierschicht für den Kerndraht. Außerhalb der vernetzten Polyethylenschicht befindet sich eine halbleitende Schicht, die den Spalt zwischen ihr und der Kupferbandschicht füllt.

Die Kupferbandschicht ist ein dünner Kupferfilm und soll verhindern, dass elektromagnetische Strahlung vom Kerndraht nach außen dringt. Im Falle einer Beschädigung der Isolierung wird der Kerndraht über die Kupferbandschicht geerdet, was sie zu einer wichtigen Schicht macht, um elektrische Verletzungen zu vermeiden. Die Kupferbandschicht ist zum Schutz vor Korrosion von einer Ummantelung umgeben. Der Mantel besteht aus Vinyl und ist häufig schwarz, um die Witterungsbeständigkeit zu erhöhen.

Bei mehradrigen Kabeln werden zwischen der Ummantelung und der Kupferbandschicht Einschlüsse eingefügt, um die Lücken zu füllen. Die Einlagen bestehen hauptsächlich aus isolierenden Fasern wie Jute. Für mehradrige Kabel werden hauptsächlich dreiadrige Kabel verwendet. Das liegt daran, dass in Übertragungsnetzen im Allgemeinen viele Dreiphasenleitungen verwendet werden.

Für dreiadrige Kabel werden häufig auch Kabel mit Triplex-Aufbau verwendet. Dabei handelt es sich um ein Produkt aus drei Litzen des oben genannten einadrigen Kabels, das keine Einschlüsse aufweist und daher hervorragende Wärmeableitungseigenschaften besitzt, z. B. CVT-Kabel.

Weitere Informationen zu CV Kabeln

Unterschiede bei CV Kabeln je nach Spannung

Der Aufbau von CV Kabeln unterscheidet sich zum Teil nach der verwendeten Spannung.

1. Spezielle Hochspannungskabel

Bei speziellen Hochspannungskabeln ist die vernetzte Polyethylenschicht dicker, um den Isolationsabstand zu erhöhen. Die oben beschriebene Kupferbandschicht sollte eher wie ein flexibles Rohr oder ein Kupferdraht als ein Band aufgebaut sein.

Mit zunehmender Spannung wird die vernetzte Polyethylenschicht dicker.

2. 3,3 kV CV Kabel

Bei Spannungen von 3,3 kV werden die Zwischenräume nicht mit einer halbleitenden Schicht, sondern mit einem Isoliermaterial wie PET ausgefüllt. Bei 3,3 kV-Kabeln wird nur eine Kupferbandschicht geerdet; im Vergleich zu 6,6 kV-Kabeln ist das Endbehandlungsmaterial kleiner und die Endbehandlung einfacher.

3. CV Kabel für niedrige Spannungen

Für Niederspannungsanwendungen werden in den meisten Fällen keine halbleitenden Schichten und Kupferbandlagen verwendet. Dies liegt daran, dass die Spannung niedrig ist und die elektromagnetische Strahlung gering ist. Auch die vernetzte Polyethylenschicht ist dünner als bei Hochspannungskabeln.

カテゴリー
category_de

CT-Scanner

Was ist ein CT-Scanner?

Ct Scanner

Ein CT-Scanner (englisch: computer tomography scanner) ist ein Computertomograph.

CT-Scanner werden grob in zwei Arten unterteilt: medizinische CT-Scanner, die Bilder des menschlichen Körpers und von Tieren aufnehmen, und industrielle CT-Scanner, die für zerstörungsfreie Prüfungen und die Kontrolle von Produktlieferungen verwendet werden. CT-Scanner werden für zerstörungsfreie Prüfungen und die Kontrolle von Produkttransporten eingesetzt.

Anwendungen von CT-Scannern

CT-Scanner werden in der Medizin für die Bildgebung des menschlichen Körpers und von Tieren sowie in der Industrie für die zerstörungsfreie Prüfung und die Versandkontrolle von Produkten eingesetzt. Im medizinischen Bereich werden sie für die Diagnose von Anomalien im Gehirn und in der Lunge eingesetzt.

In der Industrie werden sie häufig eingesetzt, um die inneren Abmessungen von Kabeln zu messen, indem die innere Struktur des Produkts erkannt wird, um das Innenleben von Schmiedeprodukten zu ermitteln, um Fehler zu messen, um die Ausrichtung von Fasern festzustellen, etc. Beim Einsatz im medizinischen Bereich muss die Röntgenleistung unterdrückt werden, um eine übermäßige Strahlenbelastung zu vermeiden. Beim Einsatz in der Industrie kann die Röntgenleistung jedoch problemlos erhöht werden, wodurch genauere Informationen als im medizinischen Bereich gewonnen werden können.

Funktionsweise von CT-Scannern

Ein CT-Scanner besteht aus einem Röntgenstrahler, einem Detektor und einem Bildprozessor, der die erfassten Daten in ein Bild umwandelt. Die Funktionsweise eines CT-Scanners ähnelt dem einer Röntgenaufnahme.

Jedes Material hat einen anderen Röntgenabsorptionskoeffizienten. Wenn also Röntgenstrahlen auf ein zu untersuchendes Objekt eingestrahlt werden, dringen sie je nach Material unterschiedlich schnell ein. Nach diesem Prinzip wird das zu untersuchende Objekt mit Röntgenstrahlen bestrahlt, und es werden unterschiedliche Transmissionsdosen für verschiedene Teile des Objekts ermittelt. Das allgemeine Prinzip besteht darin, das Bild auf der Grundlage dieser Erkennungsdaten zu verarbeiten und ein Bild zu erstellen.

Der Hauptunterschied zwischen einem Röntgengerät und einem CT-Scanner besteht darin, dass ein Röntgengerät die Probe aus einer Richtung bestrahlt, während ein CT-Scanner die Probe aus verschiedenen Richtungen bestrahlt. Aus diesem Grund erzeugen Röntgenstrahlen nur flache Bilder auf der Grundlage zweidimensionaler Daten, während CT-Scanner dreidimensionale Daten verwenden und kontinuierliche Bilder des untersuchten Objekts, die in einer Schleife an mehreren Stellen geschnitten werden, sowie Bilder und Filme, die dreidimensional zusammengesetzt sind, erzeugen können.

Beim Scannen mit CT-Scannern kommen zwei physikalische Phänomene zum Einsatz: die Compton-Streuung und der photoelektrische Effekt.

1. Compton-Streuung

Sie tritt auf, wenn Röntgenstrahlen mit Elektronen zusammenstoßen und ein Teil der Energie der Röntgenstrahlen auf die Elektronen übertragen wird, wodurch diese aus ihren Atomumlaufbahnen herausgeschleudert werden und die Energie der Röntgenstrahlen verringert wird.

2. Photoelektrischer Effekt

Er tritt auf, wenn Röntgenstrahlen mit Elektronen zusammenstoßen und die gesamte Energie der Röntgenstrahlen von den Elektronen absorbiert wird, so dass die Elektronen aus ihren Atomumlaufbahnen herausgeschleudert werden und die Röntgenstrahlen verschwinden; dies geschieht, wenn die Energie der Röntgenstrahlen niedrig ist.

Unterschiede zwischen CT-Scannern

Es gibt zwei Haupttypen von Ct-Scannern: medizinische und industrielle Anwendungen. Die Unterschiede zwischen ihnen werden im Folgenden erläutert.

1. Die Röntgenleistung

Medizinische CT-Scanner benötigen eine geringe Röntgenleistung, um eine übermäßige Strahlenbelastung zu vermeiden. Industrielle CT-Scanner hingegen können eine relativ hohe Röntgenleistung verwenden, da es sich bei dem zu untersuchenden Objekt um ein Objekt handelt, und können so sehr genaue Informationen erhalten.

2. Ausstattung

Medizinische CT-Scanner
Medizinische CT-Scanner bestehen aus einem Röntgenstrahler und einem Detektor, die in einer Gantry in Form eines Doughnuts zueinander angeordnet sind, wie auf den Fotos zu sehen. Die Gantry hat einen bettartigen Teil, auf dem das Prüfobjekt innerhalb des Rings der Gantry platziert wird. Die Gantry dreht sich um das Bett, und der Röntgenstrahler und der Detektor drehen sich um das zu untersuchende Objekt.

Industrielle CT-Scanner
Bei industriellen CT-Scannern sind Röntgenstrahler und Detektor relativ zueinander fixiert und das zu prüfende Teil befindet sich zwischen ihnen. Durch Drehen des Teils, auf dem sich das zu untersuchende Objekt befindet, wird das Objekt selbst gedreht und untersucht.

Das bedeutet, dass industrielle CT-Scanner je nach Größe des zu untersuchenden Objekts kleiner gebaut werden können. Industrielle CT-Scanner können ebenfalls verkleinert werden, da sie mit einem Röntgendichtschrank ausgestattet sind, um die Röntgenstrahlen im Gerät zu begrenzen.

Sowohl medizinische als auch industrielle CT-Scanner sind mit einer einzigen Reihe von Detektoren entlang der Röntgentransmissionsebene in Richtung der Breite des zu prüfenden Objekts oder mit mehreren Detektorreihen entlang der Länge des zu prüfenden Objekts erhältlich. Die Daten von mehreren Detektorreihen können gleichzeitig erfasst werden, so dass die Datenerfassung schneller erfolgt als bei nur einer Detektorreihe.

Bei industriellen CT-Scannern sind mehrere Reihen besser geeignet, da die Effizienz von größter Bedeutung ist. Auch medizinische CT-Scanner werden häufig eingesetzt, denn je schneller die Untersuchung abgeschlossen werden kann, desto geringer ist die Belastung für den Patienten.

Weitere Informationen zu CT-Scannern

1. Der Zusammenhang zwischen CT-Scannern und Krebs

Bei CT-Scans denkt man oft an die Suche nach Krebs, aber sie werden für alle möglichen Zwecke eingesetzt, von der Untersuchung bis zur Diagnose und sogar zur medizinischen Behandlung. Andererseits besteht bei CT-Scans ein Krebsrisiko, und man muss sich über die Risiken genau informieren, wenn man einen CT-Scan durchführt.

CT-Scans sind für eine Vielzahl von Zwecken nützlich, von der Diagnose bis zur Behandlung, einschließlich der Überwachung auf ein Wiederauftreten von Krebs, der Bestimmung von Behandlungsoptionen für Krebs, der Entwicklung von Biopsie- und Behandlungsplänen, der Gewinnung von Informationen über die Größe und das Stadium von Krebs, der Diagnose von Tumoren und der Erkennung abnormaler Krebswucherungen CT-Scanner sind wichtige Geräte in der Medizin, aber sie werden auch auf verschiedene Weise eingesetzt, u. a. da sie Strahlung abgeben, sind sie nicht frei von dem Risiko, Krebs zu verursachen.

Das Risiko, durch eine einzige CT-Untersuchung an Krebs zu erkranken, gilt jedoch als gering, und das Risiko, keine CT-Untersuchung durchführen zu lassen, ist viel höher als das Risiko, das eine CT-Untersuchung mit sich bringt.

2. Unterschied zwischen CT und MRT

Der Hauptunterschied zwischen CT und MRT ist das Messprinzip.

CT-Scanner erzeugen Bilder auf der Grundlage von Unterschieden in der Transmission von Röntgenstrahlen durch verschiedene Materialien, wie oben beschrieben, während die MRT Bilder auf der Grundlage der magnetischen Resonanz der Materialien erzeugt. CT-Scans haben den Vorteil, dass sie kurze Aufnahmezeiten und eine einfache Aufnahme von tomografischen Bildern ermöglichen, bei Notfallläsionen des Kopfes (z. B. bei Verdacht auf Blutungen) angezeigt sind und die Möglichkeit, Knochen abzubilden.

Zu den Nachteilen gehören die Strahlenbelastung und die Tatsache, dass sie der MRT in Bezug auf den Dichteunterschied zwischen Läsionen und normalem Gewebe unterlegen ist; die MRT hat den Vorteil, dass keine Strahlenbelastung besteht und Unterschiede zwischen den Geweben deutlicher als bei der CT erkannt werden können.

Ein weiterer Vorteil besteht darin, dass ein beliebiges Querschnittsbild erstellt werden kann und Bilder von Blutgefäßen ohne die Verwendung von Kontrastmitteln gewonnen werden können. Der Nachteil ist jedoch, dass Personen mit implantierten Geräten im Körper nicht untersucht werden können.