Eine Zeitreise: Vom ersten Temperaturverständnis zu analogen, dann digitalen Thermometern

Schon um 400 v. Chr. versuchten griechische Philosophen, wie beispielsweise Aristoteles, „heiß“ und „kalt“ zu definieren. Als extreme Temperaturen waren zur damaligen Zeit nur gefrorenes und kochendes Wasser bekannt. Dass noch kältere oder wärmere Temperaturen existieren, war damals unvorstellbar. So entwickelten sich aus dem Gefrier- bzw. dem Siedepunkt von Wasser die ersten Fixpunkte zur Darstellung einer Temperaturskala.

Viele Jahrhunderte später arbeitete Anders Celsius (1701-1744) eine Skala aus, welche zwischen dem Gefrier- und Siedepunkt von Wasser die Temperatur in einhundert gleiche Teile aufteilte. Im Jahr 1742 definierte Celsius diese Skala und benannte die Temperatureinteilung „Grad Celsius“. Celsius belegte jedoch zunächst kochendes Wasser mit 0°C und schmelzendes Eis mit 100°C. Erst der Botaniker und Maler Carl Nillson  Linnaeus (1707-1778) dreht die Skala 1745 in die heute bekannte Form um, bei der schmelzendes Eis mit 0°C und kochendes Wasser mit 100°C angegeben ist.

Mit Hilfe der Celsius-Einteilung entwickelten sich mit der Zeit Flüssigkeits-Glas-Thermometer. Über sehr viele Jahre wurden diese zur Temperaturermittlung und -messung genutzt. Noch heute werden sie als Standards in vielen Laboratorien verwendet. Aufgebaut sind sie aus einem Vorratsgefäß und einem Steigrohr (Kapillarrohr) mit einer Skala, in dem sich die Thermometerflüssigkeit befindet. Da es jedoch keine universale Thermometerflüssigkeit gibt, können die analogen Flüssigkeitsglasthermometer nur in begrenzten Temperaturbereichen eingesetzt werden. Das bedeutet, dass Labore in denen Temperatur gemessen wird, eine Reihe verschiedener Thermometer verwenden muss. Neben der benötigten großen Anzahl gilt auch die Zerbrechlichkeit der Glasthermometer als nicht unbedingt anwenderfreundlich. Des weiteren sind neben physikalischen Grenzen auch durch die Befüllung der Thermometer mit Flüssigkeiten Grenzen gesetzt. Je enger eine Kapillare ist, desto weiter kann die Anzeige gespreizt werden. Messunsicherheiten von kleiner 1/10 Grad sind eher unrealistisch.

Im Laufe der Zeit wurde und wird immer weiter an neueren und besseren Messinstrumenten entwickelt.

So hat Carl Wilhelm Siemens beispielsweise 1861 eine Arbeit über ein elektrisches Widerstandsthermometer veröffentlicht, das zehn Jahre später von der Firma Siemens & Halske in Berlin gebaut wurde. Dies war die Geburtsstunde von Platin-Widerstandsthermometern. Das Prinzip der Temperaturermittlung beruht auf der reproduzierbaren Änderung des Widerstandes eines Platindrahtes bei unterschiedlichen Temperaturen. Die Wiederstände werden zur Temperaturmessung genutzt.

Verglichen mit den Flüssigkeitsthermometern können Platin-Widerstandsthermometer die ermittelten Werte heutzutage meist digital anzeigenden. Ein weiterer Vorteil ist, dass bei wissenschaftlichen Widerstandsthermometern Messunsicherheiten in Größenordnungen von Mikrokelvin erreicht werden können.

Aber auch technische Widerstandsthermometer, wie zum Beispiel das Pt100, können beachtliche Messunsicherheiten von < 10mK / 0,01°K erreichen. Und das in einem weitreichenden Temperaturbereich  von -200°C bis 660°C.

Insgesamt ersetzen heute die digitalen Platin-Widerstandsthermometer mehr und mehr die Flüssigkeitsglasthermometer. Die digitalen Anzeigen verhindern Ableseparallaxen, Fehler durch Wärmeausdehnung des Glases und thermische Nachwirkungen sind gänzlich ausgeschlossen. Zudem ist durch den Einsatz von seriellen Schnittstellen die Übertragung  und Dokumentation von Messdaten bei elektrischen Thermometern machbar. Die Kalibrierung und Anwendung von elektrischen Thermometern ist wesentlich einfacher zu handhaben als es bei den analogen Flüssigkeitsthermometern der Fall ist.