ExView 3CCD Farbkamera

Forum für Polarlichter, Spaceweather, Astronomie und Raumfahrt.

Moderator: StefanK

Antworten
Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

ExView 3CCD Farbkamera

Beitrag von Mark Vornhusen » 1. Feb 2005, 21:48

Hallo,
ich bin dabei, drei baugleiche 1/3" ExView s/w Kameras zu einer Farbkamera umzubauen. Hab mir dafür von Astronomik einen RGB Farbfiltersatz betellt. Die drei Farbkanäle werden gleichzeitig auf dem Bild des Quad-Splitters dargestellt und ich werd die dann per Software zu einem Farbbild vereinigen. Ich möchte damit Farbvideos von Meteoren machen und Sprites in Farbe aufzeichnen. Das Problem ist allerdings, dass man die Kameras nicht synchronisieren kann. Für Meteore dürfte das bei Verwendung eines Weitwinkelobejtivs nicht so ins Gewicht fallen, bei Sprites schon eher. Sobald ich die ersten Ergebnisse habe, werde ich es hier posten.

Grüße,
Mark

Benutzeravatar
Thorsten Schipmann
Beiträge: 301
Registriert: 5. Mär 2004, 21:26
Wohnort: Braunschweig, JO52HH, 52°18'N, 10°36'O
Kontaktdaten:

Re: ExView 3CCD Farbkamera

Beitrag von Thorsten Schipmann » 3. Feb 2005, 19:48

mark hat geschrieben:Das Problem ist allerdings, dass man die Kameras nicht synchronisieren kann. Für Meteore dürfte das bei Verwendung eines Weitwinkelobejtivs nicht so ins Gewicht fallen, bei Sprites schon eher. Sobald ich die ersten Ergebnisse habe, werde ich es hier posten.
Hallo Mark,

hast Du Schaltunterlagen zu den Kameras?
Grundsätzlich ließen sich zwei Kameras als Slaves auf die dritte Kamera synchronisieren, wenn man die beiden etwas modifiziert.
Dazu müßte man jeweils den Taktgenerator (Quarzoszillator) durch einen in der Frequenz steuerbaren sog. VCXO (Voltage Controlled Crystal Oscillator) ersetzen, der Bestandteil einer PLL ist, die als Referenz das Videosignal (nur die Synchronimpulse daraus) der Master-Kamera benutzt.

Der VCXO wird dann von der PLL so gesteuert, daß die Kamera synchron mit dem Referenzsignal, und damit mit der Master-Kamera läuft.

Das hätte sogar noch den großen Vorteil, daß sich die Videosignale der drei Kameras direkt an die RGB-Eingänge (z.B. mittels SCART-Stecker) eines Monitors bzw. Fernsehers anschließen lassen, um ein live-Farbbild in bester Auflösung zu zeigen.
Danach könnte man dann auch die Kameras auf bestmögliche Rasterdeckung der drei Farbauszüge ausrichten, was ich bei diesem "3-Kamera-3-Objektive-System" noch für das größte Problem halte...

Auf Deine ersten Ergebnisse bin ich jedenfalls schon gespannt.

Gruß,
Thorsten

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Synchronisation

Beitrag von Mark Vornhusen » 3. Feb 2005, 23:01

Hallo Thorsten,
es handelt sich um drei von diesen Kameras hier:
http://www.rfconcepts.co.uk/2046xai.htm

Dort dürfte eine Platine vom Typ 1004 drin sein, die sieht so aus:

http://homepage.ntlworld.com/molyned/1004circuit.htm

Es gibt dazu auch zahlreiche Anleitungen im Netz, wie man die für die Langzeitbelichtung umbaut. Dort findet man weitere Abbildungen der Platine. Wenn du mir sagen könntest, wie ich die Synchronisation hinbekomme, wäre ich dir sehr dankbar.

>Das hätte sogar noch den großen Vorteil, daß sich die Videosignale der drei Kameras >direkt an die RGB-Eingänge (z.B. mittels SCART-Stecker) eines Monitors bzw. >Fernsehers anschließen lassen, um ein live-Farbbild in bester Auflösung zu zeigen.

Wußte nicht, dass das geht. Meinst du, dass man die Chich Ausgänge der drei Kameras direkt mit den R, G und B Pins des SCART Kabels verbinden könnte? Das wäre natürlich genial.

Für die gleichmäßige Ausrichtung habe ich mir schon ein Stativ mit Feinregulierung für jede Kamera gebaut. Leider sind die Filter noch nicht gekommen. Werde dann berichten.

Grüße,
Mark

Benutzeravatar
Thorsten Schipmann
Beiträge: 301
Registriert: 5. Mär 2004, 21:26
Wohnort: Braunschweig, JO52HH, 52°18'N, 10°36'O
Kontaktdaten:

Re: Synchronisation

Beitrag von Thorsten Schipmann » 4. Feb 2005, 01:42

Hallo Mark,

die Synchronisation der Kameras erfordert eine Steuerung der Taktfrequenz der (Slave-) Kameras.
In der Kamera liefert normalerweise ein Quarzoszillator den Systemtakt, aus dem sich das gesamte Video-Timing ableitet.
Die zum Synchronisieren benötigte Frequenzvariation ist recht gering, +/- 100ppm reichen normalerweise aus. (Das sind gerade mal +/- 4,8kHz Abweichung bei einem 48MHz Quarz.)
Ohne einen Schaltplan der Kamera ist es jetzt allerdings nicht ganz einfach, herauszufinden, welche Art Oszillator benutzt wird.
Im einfachsten Fall ersetzt man einen der Kondensatoren am Quarz durch eine Kapazitätsdiode, mit der man den Quarz dann "ziehen" kann.
Das klappt aber nicht mit allen Quarz-Typen und Oszillatorschaltungen.

Im Zweifelsfall muß der originale Quarz raus, und man speist einen externen Takt aus einem Eigenbau-VCXO an einem (dem richtigen!) der beiden Quarz-Anschlüsse in die Schaltung ein.

Sehr hilfreich wären bereits hochauflösende Fotos (fand ich leider keine im Internet) von sämtlichen Kamera-Platinen, die auch die IC-Beschriftung erkennen lassen. Also ohne Aufkleber auf den beiden ICs.
Deren Datenblätter bekommt man dann meist im Internet und damit läßt sich dann auch rausbekommen, ob der Quarz sich ziehen läßt, oder wo man ggf. seinen externen VCXO einspeisen muß.

Ein paar Messungen mit einem Oszilloskop helfen ggf. auch dann weiter, wenn man keine Unterlagen bekommt. Die könnte ich gern machen, aber ich habe keine solche Kamera.

Für die eigentliche PLL Regelung muß man aus dem Videosignal der Referenz-Kamera die Synchronimpulse gewinnen, dafür gibt's ein entsprechendes IC, was z.B. auch in Monitoren verwendet wird.
Ein Phasendiskriminator macht aus der Phasenverschiebung zwischen dem Soll-Synchronsignal und dem von der zu synchronisierenden Kamera gelieferten Ist-Synchronsignal eine Steuerspannung, die bei deckungsgleichen Impulsen Null ist. Mit dieser Spannung wird der VCXO angesteuert, der seine Frequenz dadurch solange verschiebt, bis die Videosignale synchron sind.
Soweit das Prinzip. Damit die Regelung in der Praxis funktioniert, d.h. das Videosignal sauber "einfängt" und dann stabil hält (und nicht z.B. immer um die Soll-Lage herum schwingt) muß man das Steuersignal noch geeignet filtern, das geht mit einem PI- oder PID-Regler aus einem Operationsverstärker.

Ein bißchen zusätzliche Elektronik ist also nötig, aber der Mehrwert ist IMHO erheblich.
Meinst du, dass man die Chich Ausgänge der drei Kameras direkt mit den R, G und B Pins des SCART Kabels verbinden könnte?

Exakt das meinte ich. Klappt natürlich nur, wenn die Kameras synchron laufen. Ggf. muß man nur noch eine Schaltspannung anlegen, damit die Glotze das Signal akzeptiert.
Synchronisieren tut sich der Monitor normalerweise aus dem Grünkanal, die anderen Kanäle werden nur dargestellt. Es macht daher Sinn, die Grünkamera als Master zu verwenden.
Für die gleichmäßige Ausrichtung habe ich mir schon ein Stativ mit Feinregulierung für jede Kamera gebaut. Leider sind die Filter noch nicht gekommen.
Das mit dem Stativ hört sich gut an. Wie machst Du das mit den Filtern, braucht jeder Kanal (außer Rot vielleicht) nicht auch noch einen IR-Block?
Und wie bekommst Du das Bild schließlich in den Rechner, läuft das über einen Framegrabber?

Gruß,
Thorsten

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Bilder

Beitrag von Mark Vornhusen » 6. Feb 2005, 14:38

Hallo,
hier ein paar Bilder von der Cam. Ich habe gestern die Software soweit fertig bekommen, dass in Echtzeit die drei Bildbereiche von dem s/w Bild des Quad-Splitters zu einem Farbbild vereinigt werden. Es ist schon ganz schön schwierig, die drei Kameras so auszurichten, dass die Bilder deckungsgleich sind. 100%ig ist mir das bisher nicht gelungen. Es war allerdings auch gestern bedeckt, so dass ich keine Sterne als Einstellhilfe zur Verfügung hatte. Jedenfalls ist die gleichzeitige Überlagerung der Bilder eine gute Einstellhilfe. Die drei Kameras sind auf einem Stativ befestigt. Jede Kamera kann ich mit einer Schraube im Winkel verstellen.

Bild
Nr. 5 lebt :-)

Bild

Bild

Leider sind die Farbfilter noch nicht da. Es sieht aber so auch schon ziemlich abgefahren aus, wenn man mit der Kamera normale Objekte in der Nähe aufnimmt. Dann sind die Bilder aufgrund der Parallaxe je nach Entfernung versetzt und es gibt bunte Farben auf dem Bildschirm.

Bei den Filtern handelt es sich um Astronomik RGB-Filter vom Typ 2. Dabei braucht man keinen zusätzlichen IR-Filter. Hier die Transmissionskurven:
Bild

Hier ein Spektrum von einem Red Sprite:
Bild



Grüße,
Mark

Benutzeravatar
Ulrich Rieth
Administrator
Beiträge: 2650
Registriert: 9. Jan 2004, 07:15
Wohnort: Buchholz in der Nordheide
Kontaktdaten:

Beitrag von Ulrich Rieth » 6. Feb 2005, 15:56

Hi Mark!

Nette Konstruktion :)
Mit den Filtern solltest Du aber vielleicht nochmal nachsehen, ob Du nicht was anderes bekommst.
Das Strahlungsmaximum der Sprites scheint ja zwischen 700 und 800nm zu liegen und da schneidest Du Dir mit dem Rotfilter, wenn ich das richtig gesehen habe, schon fast alles ab. Ebenso geht Dir im Blauen mit dem entsprechenden Filter mehr als die Hälfte der Intensität verloren.
Außerdem würde ich mal gerne ein Plot der spektralen Empfindlichkeit des ExView Chips sehen. Ich denke mal, der ist ja im roten deutlich besser, als im Blauen. Daher wäre es vielleicht nicht schlecht, statt einer roten Aufnahme eine Aufnahme ungefilterte Aufnahme zu nehmen und im Blauen dann nach einen "besseren" Filter zu suchen.
Nur mal so ein paar Vorschläge.
Gruß

Ulrich

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Sprites

Beitrag von Mark Vornhusen » 6. Feb 2005, 16:55

Hallo Ulrich,
die Filter decken den Spektralbereich ab, den das menschliche Auge sehen kann. Das reicht mir eigentlich aus. Ich denke, die Sprites sind auch ohne den Bereich zwischen 700 und 800nm hell genug. Zum Vergleich werd ich noch eine vierte Kamera ohne Filter mitlaufen lassen.

Hier noch eine Grafik zur spektralen Empfindlichkeit des Exview-Chips:

Bild

Ich muss mit dem System erstmal einige Erfahrungen sammeln. Mich interessiert auch der Vergleich der Empfindlichkeit beispielsweise zur D70 mit 1.2/50mm Objektiv oder zu der Farb-Mintron. Vielleicht kann Wolfgang mal ein Bild der Farb-Mintron ohne Integration posten.


Grüße,
Mark

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Farbfilter sind da

Beitrag von Mark Vornhusen » 10. Feb 2005, 17:07

Hallo,
die Farbfilter sind gestern gekommen. Wenn die Filter vor den Objektiven sind, dann wird das Bild nochmal sehr viel dunkler. Ich benutze derzeit nicht besonders gute f0.95/2.9-8mm Zoom Objektive. Es ist extrem schwer, die Bilder zur Deckung zu bringen. Gerade wegen dem Zoom ist das fast nicht möglich. Ich sehe auch zu wenig Sterne im Live-Bild, um die Bilder genau zu überlagern. Vom Großen Wagen sind immerhin die Kastensterne zu sehen. Bei dem f0.75/4.5mm sieht man schon wesentlich mehr Sterne, davon habe ich allerdings nur eines.

Die größten Mankos sind im Moment das winzige Bild, da die Bilder über den Quad-Splitter aufgenommen werden und je nur 1/4 der vollen Bildgröße haben und die fehlende Möglichkeit einer Synchronisation. Positionslichter von Flugzeugen blinken abwechselnd in verschiedenen Farben, je nachdem welche Kamera da gerade den Verschluss offen hatte.

Eine Lösung wäre, die Kameras auf Langzeitbelichtung von ca. 3 Sekunden umzubauen und dann abwechselnd die Bilder nacheinander zu speichern. Der Quad-Splitter hat eine Funktion, dass die Bilder nacheinander automatisch in voller Größe angezeigt werden. Das wiederholt sich in einer Endlos-Schleife. Dann könnte man jede Sekunde ein Bild grabben und anschließend zu Farbkomposits zusammensetzen. Man hätte dann volle Bildgröße und auch kein Problem mehr mit der Synchronisation. Leider steht in den Umbau-Anleitungen für die Ex-View Kameras, dass das Bild während der Beichtung nicht angezeigt wird. Daher würde es immer eine Aufnahmelücke geben, da man das Bild nicht während der Belichtung auslesen kann. Die Luxus-Variante wäre, dafür 3 Watec oder Mintron Kameras zu nehmen. Die eben beschriebene Methode über den Quad-Splitter sollte damit klappen.

Übrigens addiert die Watec keine einzelnen Frames, sondern macht eine echte Langzeitbelichtung. Das sieht man daran, dass bei Meteoren die Spuren nicht unterbrochen sind, sondern auch bei sehr schneller Bewegung durchgängig. Die Mintron macht das offenbar auch so. Das steht dann aber fast überall falsch beschrieben.

Ich will heute noch ein paar Experimente mit den Bildern von der D70 und f1.2/50mm machen. Ich könnte mir vorstellen, dass man noch eine oder zwei Blenden herausholen kann, wenn man auf die Bilder ein Binning anwendet. Wenn man ein 5000 Pixel großes Bild auf 640x480 runterrechnet und dabei die Werte der benachbarten Pixel zusammenzählt, dann sollte das Bild heller werden.

Soweit erstmal.

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

erstes Ergebnis

Beitrag von Mark Vornhusen » 14. Feb 2005, 16:54

Hallo,
hier ein erster Film. Zu sehen sind die drei Farbkanäle und das Farbbild, das aus der Überlagerung der Kanäle entsteht. Hier habe ich, um das Bild heller zu machen, 80 Frames pro Bild integriert. In der endgültigen Version will ich ein integriertes Bild mit einem Bild der hellsten Pixel aus 80 Frames kombinieren, so dass sowohl Objekte mit schneller Bewegung drauf sind, als auch dass das Gesamtbild einigermaßen hell ist. Im Prinzip scheint es jedenfalls zu funktionieren.

http://www.parhelia.de/storm/2005/movie_1.avi (divx, 9mb)


Grüße,
Mark

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Genlock

Beitrag von Mark Vornhusen » 27. Mär 2005, 22:55

Hallo Thorsten,
wenn ich mir 3 s/w Kameras mit Genlock besorge und über Genlock synchronisiere, könnte ich die drei Kameras dann auch an den RGB-Eingang anschließen und ein Farbbild erhalten?

Solche Kameras gibt es bei E-BAY-USA recht günstig. Spielt die Fernsehnorm (PAL/NTSC) bei schwarzweiss Kameras, die normalerweise an den Composit-Anschluss angeschlossen werden, eine Rolle? Ich vermute mal ja, denn bei meiner Watec gab es eine spezielle "overseas" Version. Spätestens, wenn ich drei NTSC Kameras an den RGB Anschluss stecke, dürfte es arg werden.


Grüße,
Mark

Benutzeravatar
Thorsten Schipmann
Beiträge: 301
Registriert: 5. Mär 2004, 21:26
Wohnort: Braunschweig, JO52HH, 52°18'N, 10°36'O
Kontaktdaten:

Re: Genlock

Beitrag von Thorsten Schipmann » 28. Mär 2005, 00:01

wenn ich mir 3 s/w Kameras mit Genlock besorge und über Genlock synchronisiere, könnte ich die drei Kameras dann auch an den RGB-Eingang anschließen und ein Farbbild erhalten?
Hallo Mark,
ja, genau das kannst Du machen. Wenn die Kameras allerdings eine automatische Verstärkungsregelung haben, bekommen damit alle drei Kanäle eine voneinander unabhängige Verstärkung, Du hättest in diesem Fall also keinen konstanten Weißabgleich.
Spielt die Fernsehnorm (PAL/NTSC) bei schwarzweiss Kameras, die normalerweise an den Composit-Anschluss angeschlossen werden, eine Rolle? Ich vermute mal ja, denn bei meiner Watec gab es eine spezielle "overseas" Version. Spätestens, wenn ich drei NTSC Kameras an den RGB Anschluss stecke, dürfte es arg werden.
Bei S/W-Kameras spielt die Farbnorm (PAL/NTSC) naturgemäß keine Rolle, sie definiert nur die Art und Weise, auf die ein S/W-Signal abwärtskompatibel um die Farbinformation ergänzt und damit zu einem Composite-Video (FBAS = CVBS) Signal wird.
Eine wichtige Rolle spielt allerdings die der jeweiligen Farb-Norm zugrundeliegende S/W-Norm (CCIR/EIA).
Das nordamerikanische Fernsehen verwendet 525 Zeilen mit 60 Teilbildern pro Sekunde mit 2:1 Zeilensprung (EIA-Standard), das europäische Fernsehen verwendet 625 Zeilen mit 50 Teilbildern pro Sekunde mit 2:1 Zeilensprung (CCIR-Standard).

Es kommt also darauf an, daß Dein Monitor und Dein Framegrabber den (dem NTSC-Farbsignal zugrundeliegenden) 525/60 EIA-Standard unterstützen, falls Du S/W-Kameras nach amerikanischer oder japanischer Norm (EIAJ bzw. JEITA) verwenden möchtest. EIA/EIAJ unterscheiden sich nur dadurch, daß das EIA einen Schwarzwert von ca. 7,5% vom Weißwert definiert, während bei EIAJ (wie auch bei CCIR) der Schwarzwert 0% beträgt.
Ansonsten bist Du auf S/W Kameras nach CCIR-Norm (625/50) angewiesen. Ich vermute, daß mit der "overseas-version" die CCIR-Version gemeint ist...

Schöne Grüße,
Thorsten

janlameer
Beiträge: 119
Registriert: 20. Jan 2004, 16:24
Wohnort: Netherlands
Kontaktdaten:

different filtering

Beitrag von janlameer » 29. Mär 2005, 17:18

Hi Mark !

As a thought, how about this:

camera A = non filtered --> B&W luma signal
camera B = cut of at 600 nm (or there about) --> blue + green signal
camera C = yellow filter --> green + red signal

A = B&W luma
A-B = red
A-C = blue
A-[(A-B) + (A-C)] =green

well, the idea is basically to get a LAB sort of signal of higher sensitivity and perhaps also better resolution.
You could perhaps also reduce the resolution of the A-B and A-C signal to get higher color sensitivity, like what happens in a digital photo camera where there are twice as many green pixels as red or blue ones.

good luck, janL

Benutzeravatar
Thorsten Schipmann
Beiträge: 301
Registriert: 5. Mär 2004, 21:26
Wohnort: Braunschweig, JO52HH, 52°18'N, 10°36'O
Kontaktdaten:

Re: different filtering

Beitrag von Thorsten Schipmann » 30. Mär 2005, 18:23

Hello Jan,

very interesting approach...
This reminds me of some equipment from the days when color television was just getting off the ground. Those days the engineers mainly struggled with deflection raster deviations and registration errors in their video cameras.
For that reason cameras using tubes for red, green and blue delivered rather blurry luminance by adding the components, so a different approach (WRB-System) was used to get an acceptable color tv camera:

first tube: luminance (unfiltered)
2nd tube: red
3rd tube: blue

Because of the human eye's color perception the luminance isn't just calculated Y = R + G + B, ther are weighting factors added instead:
Y = 0,299 R + 0,587 G + 0,114 B

Using the equation above, the green component of the WRB camera is derived as:
G = 1,704 Y - 0,509 R - 0,194 B

This approach was used in generating a composite video signal, which has full bandwith for luminance Y, but reduced bandwith of about one third for chroma components, resulting in the impression of a sharp color picture...

Perhaps Mark should give this a try, because it would use two of his already available filters (R, B).
The drawback of course would be losing the simple direct connection to the RGB inputs of a monitor. One would have to realize the above equation for the green channel with some fast op-amps, to get a suitable green signal.

The advantage however would be more tolerance to registration errors and a far better luminance.
To get the most out of this approach, it will be suitable to build a component video signal Y Cb Cr. (In Germany mostly called YUV).
The so called color difference signals Cb = B-Y and Cr = R-Y become zero in case of an uncolored scene presented to the camera(s).

In addition, the composite signal allows simple color saturation adjustment by means of amplifying or attenuating the Cb and Cr components.

Noise reduction by decreasing resolution of the B and R camera will be possible too, without compromising luminance.

I would like to hear your opinion.

greetings,
Thorsten

Mark Vornhusen
Administrator
Beiträge: 797
Registriert: 8. Jan 2004, 23:24
Wohnort: Vechta, 52.72 N, 8.28 E
Kontaktdaten:

Farbkamera

Beitrag von Mark Vornhusen » 30. Mär 2005, 22:30

Hallo,
ich bekomme demnächst 3 Bildverstärker vom Typ xx1332. Das sollte dann hoffentlich ausreichend Licht geben. Die 1/3" ExView Kameras sind nach meinen bisherigen Erfahrungen zu lichtschwach. Ausserdem war mir das zu heikel, da mit dem Lötkolben dran zu gehen, für die Synchronisation. Bei drei Mintrons würde ich mir das noch weniger zutrauen. Also die aktuelle Planung sieht so aus: 3 Bildverstärker, Objektiv vielleicht jeweils 2.0/50mm oder 2.0/85mm, RGB-Filtersatz und Aufnahme mit drei Panasonic s/w Kameras mit Genlock. Die drei Kameras werden direkt mit dem RGB Scart-Stecker zu einem Vollbild überlagert.
Damit wäre der Forschungsetat dann für dieses Jahr aufgebraucht :-)

Die von Jan beschriebene Vorgangsweise ist sehr interessant. Das könnte ich auch mit dem Quad-Splitter relativ einfach realisieren. Ich werd es versuchen.

Grüsse,
Mark

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 11 Gäste