banner
Nachrichtenzentrum
Tadellose Kundenbetreuung

Videoaufzeichnung im Zeitalter der CRTs: Die Videokameraröhre

Dec 10, 2023

Wir haben alle schon einmal Videos von Konzerten und Veranstaltungen aus den 1950er-Jahren gesehen, uns aber wahrscheinlich nie wirklich gefragt, wie das gemacht wurde. Schließlich gab es die Aufzeichnung bewegter Bilder auf Film schon seit dem späten 19. Jahrhundert. Sicherlich wurde das bis zur Erfindung der CCD-Bildsensoren in den 1980er Jahren so weiter gemacht? Nein.

Obwohl Filme bis in die 1980er-Jahre noch häufig verwendet wurden und Filme und sogar ganze Fernsehserien wie „Star Trek: The Next Generation“ auf Film aufgezeichnet wurden, besteht die größte Schwäche des Films in der Notwendigkeit, den physischen Film zu bewegen. Stellen Sie sich die Live-Videoübertragung vom Mond im Jahr 1969 vor, wenn es nur filmbasierte Videorecorder gegeben hätte.

Werfen wir einen Blick auf die Videokameraröhre: die fast vergessene Technologie, die die Rundfunkindustrie ermöglichte.

Das Prinzip der Filmaufnahme unterscheidet sich nicht wesentlich von dem der Fotografie. Die Lichtintensität wird je nach Filmtyp in einer oder mehreren Schichten erfasst. Chromogener (Farb-)Film für die Fotografie besteht im Allgemeinen aus drei Schichten: Rot, Grün und Blau. Abhängig von der Intensität des Lichts in diesem Teil des Spektrums wirkt es sich stärker auf die entsprechende Schicht aus, was bei der Entwicklung des Films sichtbar wird. Ein sehr bekannter Filmtyp, der dieses Prinzip nutzt, ist Kodachrome.

Während sich Filme hervorragend für Standfotografie und Kinos eigneten, passten sie nicht zum Konzept des Fernsehens. Kurz gesagt: Filme werden nicht ausgestrahlt. Live-Übertragungen waren im Radio sehr beliebt, und das Fernsehen musste in der Lage sein, seine bewegten Bilder schneller zu verbreiten, als Filmspulen im ganzen Land oder in der ganzen Welt verschickt werden konnten.

Angesichts des Stands der Elektronik im ersten Jahrzehnt des 20. Jahrhunderts war eine Art Kathodenstrahlröhre die offensichtliche Lösung, um Photonen irgendwie in elektrischen Strom umzuwandeln, der interpretiert, gesendet und möglicherweise gespeichert werden konnte. Diese Idee einer sogenannten Videokameraröhre rückte in diesen Jahrzehnten in den Mittelpunkt zahlreicher Forschungen und führte in den 1920er Jahren zur Erfindung des Bildzerlegers.

Der Bildzerleger nutzte eine Linse, um ein Bild auf eine Schicht aus lichtempfindlichem Material (z. B. Cäsiumoxid) zu fokussieren, das Photoelektronen in einer Menge emittiert, die im Verhältnis zur Intensität der Anzahl der Photonen steht. Die Photoelektronen aus einem kleinen Bereich werden dann in einen Elektronenvervielfacher manipuliert, um einen Messwert aus dem Bildabschnitt zu erhalten, der auf das lichtempfindliche Material trifft.

Obwohl Bildzerleger grundsätzlich wie vorgesehen funktionierten, führte die geringe Lichtempfindlichkeit des Geräts zu schlechten Bildern. Nur bei extremer Beleuchtung konnte man die Szene erkennen, was sie für die meisten Szenen unbrauchbar machte. Dieses Problem wurde erst mit der Erfindung des Ikonoskops behoben, das das Konzept einer Ladungsspeicherplatte nutzte.

Das Ikonoskop fügte der lichtempfindlichen Schicht einen Kondensator auf Silberbasis hinzu und verwendete Glimmer als Isolierschicht zwischen kleinen Silberkügelchen, die mit dem lichtempfindlichen Material bedeckt waren, und einer Silberschicht auf der Rückseite der Glimmerplatte. Dadurch würden sich die Silberkügelchen mit Photoelektronen aufladen, woraufhin jedes dieser Kügelchen-„Pixel“ einzeln vom Kathodenstrahl abgetastet werden könnte. Durch das Scannen dieser geladenen Elemente wurde das resultierende Ausgangssignal im Vergleich zum Bildzerleger erheblich verbessert, was sie bei ihrer Einführung in den frühen 1930er Jahren zur ersten praktischen Videokamera machte.

Die Ausgabe war jedoch immer noch ziemlich verrauscht. Die Analyse durch EMI ergab, dass die Effizienz nur etwa 5 % betrug, da Sekundärelektronen die gespeicherten Ladungen auf der Speicherplatte während des Scannens störten und neutralisierten. Die Lösung bestand darin, die Ladungsspeicherung von der Photoemissionsfunktion zu trennen und so im Wesentlichen eine Kombination aus Bildzerlegung und Ikonoskop zu schaffen.

In diesem „Bild-Ikonoskop“, oder Super-Emitron, wie es auch genannt wurde, würde eine Fotokathode die Photonen aus dem Bild einfangen und die resultierenden Fotoelektronen auf ein Ziel richten, das Sekundärelektronen erzeugt und das Signal verstärkt. Die Zielplatte im britischen Super-Emitron ähnelt im Aufbau der Ladungsspeicherplatte des Ikonoskops, wobei ein Elektronenstrahl mit niedriger Geschwindigkeit die gespeicherten Ladungen abtastet, um Sekundärelektronen zu verhindern. Der Super-Emitron wurde erstmals 1937 von der BBC für eine Outdoor-Veranstaltung während der Dreharbeiten zur Kranzniederlegung des Königs am Tag des Waffenstillstands eingesetzt.

Auf der Zielplatte des Bild-Ikonoskops fehlen die Körnchen des Super-Emitrons, ansonsten ist sie jedoch identisch. Sein großes Debüt feierte es während der Olympischen Spiele 1936 in Berlin. Die anschließende Kommerzialisierung durch die deutsche Firma Heimann, die das Bild-Ikonoskop („Super-Ikonoskop“ auf Deutsch) herstellte, führte dazu, dass es bis in die frühen 1960er Jahre der Rundfunkstandard war. Eine Herausforderung bei der Kommerzialisierung des Super-Ikonoskops bestand darin, dass während der Olympischen Spiele 1936 in Berlin jede Röhre nur einen Tag halten würde, bevor die Kathode abgenutzt wäre.

Amerikanische Rundfunkanstalten würden bald vom Ikonoskop zum Bild-Orthicon wechseln. Das Bild-Orthicon hatte viele Eigenschaften mit dem Bild-Ikonoskop und dem Super-Emitron gemeinsam und wurde von 1946 bis 1968 im amerikanischen Rundfunk verwendet. Es nutzte denselben Abtaststrahl mit niedriger Geschwindigkeit, um Sekundärelektronen zu verhindern, der zuvor im Orthicon und einer Zwischenversion verwendet wurde des Emitrons (ähnlich dem Ikonoskop), genannt Kathodenpotentialstabilisiertes (CPS) Emitron.

Zwischen dem Bild-Ikonoskop, dem Super-Emitron und dem Bild-Orthicon hatte die Fernsehübertragung einen Punkt an Qualität und Zuverlässigkeit erreicht, der in den 1950er Jahren zu einer rasanten Popularität führte, als immer mehr Menschen ein Fernsehgerät kauften, um zu Hause fernzusehen, begleitet von einem immer mehr Inhalte, von Nachrichten bis hin zu verschiedenen Arten von Unterhaltung. Dies würde zusammen mit neuen Einsatzmöglichkeiten in Wissenschaft und Forschung die Entwicklung eines neuen Typs von Videokameraröhren vorantreiben: der Vidicon.

Das Vidicon wurde in den 1950er Jahren als Weiterentwicklung des Image-Orthicons entwickelt. Sie verwendeten einen Fotoleiter als Target und verwendeten häufig Selen für seine Fotoleitfähigkeit, obwohl Philips in seiner Plumbicon-Reihe von Vidicon-Röhren Blei(II)-Oxid verwendete. Bei diesem Gerätetyp würde die durch die Photonen im Halbleitermaterial induzierte Ladung auf die andere Seite übertragen, wo sie von einem Abtaststrahl mit niedriger Geschwindigkeit ausgelesen würde, ähnlich wie bei einem Bild-Orthikon oder Bild-Ikonoskop.

Obwohl sie günstiger in der Herstellung und robuster im Gebrauch sind als Videokameraröhren ohne Vidicon, leiden Vidicons aufgrund der Zeit, die die Ladung benötigt, um ihren Weg durch die fotoleitende Schicht zu finden, unter Latenz. Dies wird durch eine allgemein bessere Bildqualität und keinen Halo-Effekt ausgeglichen, der durch das „Spritzen“ von Sekundärelektronen durch Punkte extremer Helligkeit in einer Szene verursacht wird.

Bei den Videokameras, die es während des Apollo-Mondlandeprogramms der USA zum Mond schafften, handelte es sich um von RCA entwickelte Vidicon-basierte Einheiten mit einer benutzerdefinierten Kodierung und schließlich um eine Farbvideokamera. Obwohl viele amerikanische Haushalte zu dieser Zeit noch über Schwarzweißfernseher verfügten, konnte Mission Control live in Farbe sehen, was ihre Astronauten auf dem Mond taten. Schließlich würden Farbkameras und Farbfernseher auch auf der Erde alltäglich werden.

Es war eine interessante Herausforderung, sowohl Film- als auch Videokameras Farbe zu verleihen. Denn um ein Schwarz-Weiß-Bild aufzunehmen, muss man lediglich die Intensität der Photonen zu diesem Zeitpunkt erfassen. Um die Farbinformationen in der Szene aufzuzeichnen, muss man die Intensität von Photonen mit einer bestimmten Wellenlänge in der Szene aufzeichnen.

Beim Kodachrome-Film wurde dieses Problem durch drei Schichten gelöst, eine für jede Farbe. Bei terrestrischen Videokameras teilte ein dichroitisches Prisma das einfallende Licht in diese drei Bereiche auf, und jeder wurde separat von einer eigenen Röhre aufgezeichnet. Für die Apollo-Missionen nutzten die Farbkameras ein mechanisches feldsequenzielles Farbsystem, das ein rotierendes Farbrad nutzte und mit nur einer einzigen Röhre eine bestimmte Farbe aufnahm, wann immer der Farbfilter angebracht war.

Irgendwann kommt eine bessere Technologie. Im Fall des Vidicon war dies die Erfindung zunächst des CCD-Sensors (Charge-Coupled Device) und später des CMOS-Bildsensors. Diese machten die Kathodenstrahlröhre überflüssig und verwendeten Silizium für die lichtempfindliche Schicht.

Aber das CCD übernahm nicht sofort die Kontrolle. Die ersten in Massenproduktion hergestellten CCD-Sensoren der frühen 1980er Jahre galten nicht als ausreichend hochwertig, um Fernsehstudiokameras zu ersetzen, und wurden auf Camcorder verwiesen, bei denen die kompakte Größe und niedrigere Kosten wichtiger waren. In den 1980er Jahren wurden CCDs massiv verbessert, und mit dem Aufkommen von CMOS-Sensoren in den 1990er Jahren ging die Ära der Videokameraröhren schnell zu Ende, da nur noch ein Unternehmen Plumbicon-Vidicon-Röhren herstellte.

Obwohl dies von den meisten größtenteils vergessen wird, lässt sich nicht leugnen, dass Videokameraröhren einen bleibenden Eindruck auf die heutige Gesellschaft und Kultur haben und vieles von dem ermöglichen, was wir heute als alltäglich betrachten.