Fotos per WLAN auf den PC übertragen

Eye-Fi Connect X2 4 GB

Die Fotos für die Tests hier mache ich in der Regel mit meiner kleinen Canon Powershot A650 IS. Diese Kamera hat ein Klappdisplay, mit dem ich die Kamera in ungewöhnliche Positionen zu bringen, aber trotzdem jederzeit den Bildausschnitt und die Belichtung beurteilen kann. Das ist sehr komfortabel, einzig einen Haken teilt sie mit vielen anderen Kompaktkameras.

Das Fach, in dem die Speicherkarte steckt, befindet sich an der Unterseite der Kamera und kann nur dann aufgeklappt werden, wenn keine Schnellwechselplatte angeschraubt ist.

Blockierung des Speicherkartenfachs durch Schnellwechselplatte

Es ist auf Dauer ziemlich nevig, erst die Schnellwechselplatte abzuschrauben, um die Karte entnehmen zu können und sie hinterher mit der frisch geleerten Karte wieder anzuschrauben. Wenn ich Fotos erneut aufnehmen muss, weil die Schärfe nicht passt, artet das in eine Ab- und Anschraub-Arie aus. Das wollte ich mir gern ersparen, also habe ich mir eine Eye-Fi X2 – Wifi-Karte zugelegt.

Dabei handelt es sich um eine SD – Karte, die zusätzlich mit einem WLAN-Modul ausgestattet ist. Die Karte kann, solange sie sich in einem vorher eingetragenen  WLAN-Netzwerk befindet, alle Bilder und Videos von der Kamera direkt auf den Rechner laden. Oder ins Netz.

Eye-Fi Connect X2 4 GB

Mein Exemplar (eine X2 bietet 4 GB Speicherplatz und kann Bilder und Videos übertragen. Auf die Pro X2 passen 8 GB, sie überträgt auch RAW – Dateien und stattet die Bilder mit GPS-Daten aus. Allerdings werden diese nicht per GPS ermittelt, sondern anhand der in der Nähe befindlichen WLAN-Netze. Daher ist das Geotagging ziemlich ungenau und funktioniert nur in Städten am Besten. Auf dem Land, wo es keine WLAN-Netze gibt, stehen auch keine Geokoordinaten zur Verfügung.

Neuerdings gibt es auch von Sandisk Speicherkarten mit der Eye-Fi-WLAN-Technologie. Diese basieren allerdings auf dem etwas langsameren Class 4 – Standard (die Originalen haben Class 6), sind dementsprechend aber auch etwas preiswerter.

Lieferumfang

Im Lieferumfang der Karte befindet sich auch ein USB 2.0 – Kartenleser, der einerseits der Konfiguration der Karte dient, andererseits aber auch als ganz normaler Kartenleser eingesetzt werden kann. Er liest Daten maximal mit rund 19 MB/s und schreibt sie mit rund 16 MB/s auf die Karte. Ermittelt habe ich diese Werte mit der schnellen Sandisc Extreme Pro. Die Eye-Fi-Karte selbst wird mit rund 17 MB/s gelesen und mit rund 12 MB/s beschrieben. Zur kabellosen Übertragung selbst ist der Reader aber nicht notwendig.

Bilder übertragen

Nachdem die Karte das erste Mal im Kartenleser eingesteckt und mit dem Rechner verbunden wurde, muss ein passendes WLAN-Netz eingerichtet werden. Über das werden die Bilder später an den Zielrechner geschickt. Auf der Karte können 32 verschiedene Zugangspunkte gespeichert werden. Wer will, kann seine Bilder auch direkt auf einen FTP-Server oder einige Bildergalerien bzw. Onlinedienste (Evernote, Facebook, flickr, Picasa, SmugMug, Snapfish, Gallery2 und 3) hochladen.

Um die Bilder von der Karte zu transferieren, unterstützt sie verschiedene Möglichkeiten:

Standardmäßig werden die Bilder direkt nach dem Fotografieren auf den Rechner (und ggf. zum Onlinedienst) geladen. Es gibt auch die Möglichkeit, einige Bilder, die per „Schützen“-Funktion der Kamera selektiert werden, entweder zum Onlinedienst oder auf den Rechner zu übertragen.

Falls der Zielrechner nicht eingeschaltet ist, die Bilder dennoch kabellos an diesen übertragen werden sollen, kann der Modus „Weitergeleitete Übertragung“ ausgewählt werden. Dann werden alle Bilder zunächst auf die Eye-Fi – Server geladen und dort später vom Rechner abgeholt.

Und dann gibt es noch die Möglichkeit, Bilder endlos zu übertragen. Dabei werden die ältesten Bilder auf der Speicherkarte wieder gelöscht, falls es während der Fotosession zu Platzproblemen kommen sollte.

Fazit

Ich habe die Eye-Fi X2 jetzt schon einige Wochen in Betrieb und ich muss sagen, dass ich sehr begeistert bin. Die Karte selbst verbraucht aufgrund der WLAN-Geschichte etwas mehr Strom als normale SD – Karten, aber da ich im Büro immer genügend Ersatzakkus zur Verfügung habe, sehe ich da kein Problem. Der Zeit- und der damit einhergehende Komfortgewinn ist beträchtlich und mir die rund 40,- wert. Ich muss in meinem Bearbeitungsprogramm nur noch das passende Verzeichnis einstellen und sehe die Bilder direkt reinlaufen.

Lohnt der Umstieg auf einen USB 3.0-Kartenleser?

Kingston USB 3.0-Kartenleser voll bestückt

Da USB 3 immer mehr Verbreitung findet (jetzt sogar in den neuen Macs) habe ich mir die Frage gestellt, ob es sinnvoll ist, auch den Kartenleser gegen ein USB 3-Pendant auszutauschen.

Zu diesem Zweck habe ich mir zunächst einen Transcend USB 3.0 Kartenleser besorgt und ihn mit verschiedenen Karten gegen meinen rund 2-3 Jahre alten Hama USB 2.0-Kartenleser antreten zu lassen.

Cardreader Transcend voll bestückt
<a href=“http://www.amazon.de/gp/product/B0056TYRMW/ref=as_li_ss_tl?ie=UTF8&tag=s0nntag-21&linkCode=as2&camp=1638&creative=19454&creativeASIN=B0056TYRMW“ target=“_blank“Cardreader Transcend voll bestückt

Die Karten

Jahrelang habe ich in meiner Pentax eine Sandisk 2 GB-SD-Karte benutzt, beim Umstieg auf nur noch RAW-Fotos dann mal eine SD-HC von Transcend mit 8 GB Speicherkapazität gekauft. Da sich die Speicherkartenpreise in den letzten Jahren massiv verringert haben, ist letztens noch eine 16 GB-Karte, ebenfalls von Transcend hinzugekommen.

Wenn ich bedenke, dass mein 1 GB-Microdrive vor zehn Jahren noch mit rund 230,- € zu Buche geschlagen hat, sind die rund 12,- für die 16 GB schon unverschämt billig. Der Preisverfall beträgt in diesem Fall 94%.

Testkandidaten

Also habe ich zunächst diese drei Karten gegeneinander antreten lassen. Als langsamste hat sich die Sandisk Ultra II (ganz links im Bild) erwiesen, die mit angeschlossenem USB 2-Reader je 10 MB/s lesen und schreiben kann. Mit angeschlossenem USB 3-Reader kommt sie ganz knapp auf 11 MB/s. Die beiden Transcendkarten (zweite und vierte Karte im Bild) sind etwas schneller. Sie erreichen rund 20 – 23 MB/s beim Lesen und rund 14 – 18 MB/s beim Schreiben. Sowohl im USB 2, als auch in den USB 3-Kartenlesern.

Anhand dieser Ergebnisse war ich ziemlich enttäuscht, denn ein Gegencheck der USB 2.0-Schnittstelle mit meinem 16 GB USB 3.0-Stick zeigt, dass dort maximal 35 MB/s beim Lesen und Schreiben möglich sind. Wenn die Karten diese Zugriffszeiten noch nicht mal erreichen, ist es sinnlos, bei diesen Geschwindigkeiten auf USB 3.0 umzusteigen.

Aber Moment, die getesteten Karten sind nicht die schnellsten, die es gibt, sondern bestenfalls unteres Mittelfeld. Die Geschwindigkeit von SD-Karten wird in Klassen angegeben. So müssen „Class 2“ mindestens 2 MB/s Schreibgeschwindigkeit erreichen. „Class 4“, „Class 6“ und „Class 10“ erreichen jeweils mindestens 4, 6 und 10 MB/s. All diese Klassen verwenden das UHS (Ultra High Speed)-Bussystem der SD-Karten. Um neueren Anforderungen gerecht zu werden, wurde Mitte 2010 neue Bussysteme vorgestellt, namentlich UHS I und UHS II. Ziel ist, höhere Geschwindigkeiten zu erreichen. UHS I-Karten bewegen sich schreibzugriffsmäßig zwischen 50 und 104 MB/s. UHS II-Karten zwischen 156 und 312 MB/s. Wie man sieht, geht auf diesem Sektor noch einiges.

Also habe ich mir für den Anfang eine UHS-I-Karte besorgt (Sandisk Extreme Pro 8 GB) und habe diese gegen die anderen Karten antreten lassen. Der Hama-USB 2.0-Kartenleser liest ihre Daten mit rund 20 MB/s und schreibt sie mit rund 19 MB/s. In den USB 3-Lesern geht das schon fixer. Hier kann sie mit rund 80 MB/s ausgelesen und mit 70-75 MB/s beschrieben werden. Das sind schon ganz andere Werte. Diese Karte ist also rund 4x schneller als die anderen.

Die Kartenleser

Ich hatte mir zunächst den oben schon gezeigten Transcend USB 3.0-Leser gekauft, war aber ob der so erreichten niedrigen Zugriffsraten bei normalen SD-Karten unsicher, ob sie nicht am Kartenleser festzumachen sind. Also habe ich noch einen Kingston nachgeordert und die Zugriffszeiten nochmal mit diesem getestet.

Kingston USB 3.0-Kartenleser voll bestückt

Die Unterschiede der Zugriffszeiten bewegen sich bei den normalen Karten im Bereich von max. 1 MB. Bei der schnellen Sandiskkarte sind die Unterschiede schon signifikanter. Hier ist der Kingstonleser beim Lesen rund 5 MB/s schneller. Beim Schreiben zwischen 1 und 5 MB/s). Beide Kartenleser kommen neben CompactFlash-Karten und Microdrives und auch mit Micro-SD-Karten zurecht, sodass hier keinen Adapter mehr notwendig ist. In den Transcend passen allerdings keine CompactFlash II-Karten, also Microdrives mehr. Sie sind schlicht zu hoch für den Schacht.

Dem Transcend ist ein Kabel von 60 cm Länge beigelegt,  Kingston ist da großzügiger und spendiert seinem Leser ein 1,10 m langes Kabel. Wenn der Reader hinten an den Rechner angeschlossen werden soll, ist das längere Kabel praktischer. Ansonsten kann auch auf ein USB 3.0-Verlängerungskabel zurückgegriffen werden.

In einigen Amazonrezensionen wird bemängelt, dass die Kartenleser zu leicht sind, um sie vorm Wegrutschen zu sichern. Ich finde, das ist unerheblich, weil ich die Geräte eh nur temporär an den Rechner anschließe. Wichtig finde ich, dass beide Geräte unter Windows 7 neu reingesteckte Karten erkennen. Bei dem Hama-Reader ist es notwenig, den Leser jedesmal beim Einstecker einer neuen Karte von der USB-Schnittstelle zu trennen und neu zu verbinden. Das finde ich auf Dauer erheblich lästiger, als ein verrutschendes Kartenlesegerät. Vorallem wenn ich mehrere Karten nacheinander übertragen will. Und zum Schluss hier noch eine Tabelle, die alle gemessenen Werte darstellt. Ich habe mit CrystalDiskMark getestet:

Vergleich USB 3.0 Kartenleser und Speicherkarten

Fazit

Momentan sind schnelle Karten nur dann sinnvoll, wenn die Übertragung von der Karte auf den Rechner schnell gehen soll. Das kann bei Pressefotografen der Fall sein, die ihre Bilder nach dem Shooting schnell zur Verfügung haben müssen. Ich kann mir auch vorstellen, dass es im Urlaub, nachdem man die Karten tagsüber vollfotografiert hat, schön ist, sich nicht so lange mit der Übertragung der Bilder aufhalten möchte.

Ein Rechenbeispiel, was die Übertragungsraten verbildlicht:

Fotografiert man eine 16 GB-Karte voll, dauert die Übertragung auf den Rechner bei einer Standard-Class 10-Karte rund 13 min. Bei meiner getesteten Sandisk Extreme Pro und USB 3.0 sinds nur 3 min. Das ist eine Zeitersparnis von 10 min. Bei 32 GB sinds aber schon 20 min und bei 64 GB rund eine dreiviertel Stunde. Wenn die Übertragungszeit nicht so wichtig ist, reicht also nach wie vor ein USB 2.0-Kartenleser und die normalen, billigen Class 10-Karten.

Ich werde jedenfalls den Kingston behalten, weil er bei der Sandisk Extreme Pro doch ne Ecke schneller als der Transcend ist. Außerdem fühlt er sich etwas hochwertiger an. 😉

Update vom 04.11.2012:
Ich nutze den Reader von Kingston seit Juni regelmäßig und stelle fest, dass er dazu neigt, das Gehäuse von SD-Karten zu beschädigen. Das kommt daher, weil man die Karten beim Reinschieben verkanten kann. Bei einer Karte wurde einer der Stege, welche die Kontakte von einander trennen schon ausgehebelt und ist abgebrochen. Das ist nicht wirklich tragisch, sollte aber trotzdem nicht vorkommen. Beim Reader von Transcend kann die Karte beim Reinschieben ins Gerät nicht verkantet werden.

Diamagazine automatisch einscannen

Jeder, der den Keller voller Diakästen oder -magazine liegen hat, kennt sicher die Frage: „Wie kommen die Dias am Besten auf den Rechner?“

Einscannen ganz klar, aber womit? Wirklich tausende Euro für einen Profiscanner ausgeben? Vielleicht ist die Lösung einfach, einen Diascanner zu mieten?

Ich habe das Scannerset von mietscanner.de für einen Test zur Verfügung gestellt bekommen und möchte über meine Erfahrungen berichten, die ich beim Scannen von rund 1500 Familiendias und ein paar Negativen gemacht habe.

Was ist drin?

Das Scannerset besteht aus dem Magazinscanner Reflecta DigitDia 5000, einem Notebook und ein wenig Kleinkram. Eben alles, was man zum Einscannen von Diamagazinen braucht.

Neben dem Scanner und dem Notebook werden diverse Verbindungskabel, ein Timer, ein Diabetrachter (Gucki), ein USB-Stick (zum Transfer der Bilder auf den eigenen Rechner), zwei Magazinen und eine Anleitung mitgeliefert. Innerhalb weniger Minuten ist das Set aufgebaut, die Stromkabel angeschlossen, das Notebook mit dem Scanner verbunden und beide Geräte gestartet. Bei mir sieht das so aus:

Rechts kann man auch die Transportkiste sehen, in der das Scannerset geliefert wird. In dieser insgesamt rund 20 Kg schweren Kiste wird das ganze Set angeliefert und auch wieder abgeholt. Die Geräte sitzen dort passgenau drin, sodass während des Transport nichts verrutschen kann.

Dadurch, dass ein Notebook dabei ist, auf dem sämtliche Software (inkl. FixFoto zum Nachbearbeiten) vorinstalliert ist, kann es nach dem Auspacken gleich mit Scannen losgehen. Allerdings ist es besser, die mitgelieferte Anleitung durchzulesen, damit wirklich keine Probleme auftreten. Wer mag, kann sich die Anleitung schon im Vorfeld herunterladen und lesen.

Dias scannen

Für das Scannen der Dias stehen zwei Programme zur Verfügung. CyberView und Silverfast. Ersteres liegt dem Scanner standardmäßig bei, Silverfast ist eine Profilösung, deren Einarbeitung für meine Begriffe doch recht zeitintensiv werden kann. Das liegt auch daran, dass man Silverfast an ziemlich vielen „Schrauben“ drehen kann. Dafür müssen die Ergebnisse meist nicht mehr nachbearbeitet werden.

Ich habe mich allerdings für Cyberview entschieden, da die Ergebnisse beim Diascan farbneutraler herauskommen. Ich bearbeite meine Fotos lieber am Rechner selbst nach. Außerdem hatte ich den Eindruck, dass Cyberview etwas schneller als Silverfast arbeitet.

Beide Programm können mit der hardwarebasierten Staub- und Kratzerentfernung auf Infrarotbasis (ICE) umgehen, wobei Silverfast hierbei eindeutig die Nase vorn hat. Allerdings geht das auch wieder zu Lasten der Scanzeit.

Apropos Scanzeit: Ein Dia benötigt bei höchster Auflösung von 3600 dpi mit aktiviertem ICE rund 146s. Ohne ICE sind es rund 114s. Bei der geringsten sinnvollen Auflösung von 180dpi dauert ein Scan mit ICE rund 133s, ohne ICE 95s. Das mag bei einem einzelnen Dia nicht viel aussehen, macht aber bei 5000 Dias schon einen erheblichen Unterschied aus.

Qualität

Ich habe hier eine ganze Ecke an alten Familiendias eingescannt. Allerdings sind die Filme wohl überwiegend aus ORWO-Produktion und diese Filme haben — wie ich es mitbekommen habe — generell ein größeren Problem mit Korn, als die etablierten „Westmarken“, wie Agfa, Kodak und Co. Eine generelle Aussage zur Bildqualität ist deshalb schwierig. Ich hänge einfach mal ein paar 100%-Ausschnitte an.

Generell bin ich mit der Scanqualität sehr zufrieden. Für Erinnerungsfotos mehr als ausreichend und für die Nachbearbeitung gibt es noch genügend Reserven. Ich habe die Familienfotos auf einem HD-Fernseher der Verwandschaft vorgestellt und nur Bewunderung geerntet.

Übrigens kann man auch Negative einscannen. Der mit Cyberview gescannte Kodak Gold 200-Film kommt zwar etwas farbstichig aus dem Scanner, aber er lässt sich ziemlich gut korrigieren. Ich mache das mit dem mehrfachen Grauabgleich in FixFoto, damit gehts recht schnell. Hier mal ein Beispiel:

Unbearbeitet, nur verkleinert und geschärft
Grauabgleich, Automatische Tonwertkorrektur (=RGB-Max in FixFoto)

Ich finde, das kann sich durchaus sehen lassen, wenn das Negativmaterial noch gut ist. Wenn nicht, dann muss man mit den Einstellungen etwas herumprobieren, um das optimale Scanergebnis zu erhalten. Ich musste es mehrmals probieren und einige Negative funktionierten trotzdem nicht. Aber ok, der Scanner ist primär für Dias. Außerdem ist das Einrahmen der Negative ziemlich zeitaufwändig.

Was kostet das Ganze?

Das Scannerset kostet knapp 9,- pro Tag. Dazu kommt nochmal eine Grundgebühr von 89,- und eine Kaution von 250,- €. Mittlerweile (Stand: Juni 2019) kostet die erste Woche 119 €, jeder weitere Tag knapp 9 € und die Kaution liegt bei 200 €. Die Grundgebühr gibt´s auch nicht mehr.

Auf der Website gibts auch einen Mietkostenrechner, mit dem man schauen kann, wieviel der Mietpreis für einen bestimmten Zeitraum kostet.

Fazit

Normalerweise ist das Einscannen der Dias eine einmalige Angelegenheit. Man scannt also all seine Bilder und braucht den Scanner danach nie wieder. Wer dem Neukauf des Scanners, der Installation und Konfiguration der Treiber und dem Wiederverkauf aus dem Weg gehen möchte oder wer einfach eine funktionierende Lösung sucht, die sich auch von nicht so technikaffinen Menschen bedienen lässt, ist mit dem mietscanner-Set gut beraten.

Noch ein Tipp zum Scannen: Das Beste ist es wahrscheinlich, das Set in einen separaten Raum zu stellen, das Magazin einzulegen, den Timer stellen und den Scanvorgang starten. Dann kann man seiner Wege gehen und braucht nur noch die Magazine wechseln. Einfacher gehts nicht.

Wer Fragen zu diesem Set hat, kann sie gerne in den Kommentaren stellen. Ich werde sie dann beantworten, so gut ich kann.

Update vom 12.09.2011:

Mittlerweile wird das Scannerset nicht mehr in einer Transportkiste geliefert, sondern platzsparend im Rucksack. Wie das ausieht, kann man auf dem Bild unten auf dieser Seite sehen.

Wer die eingescannten Bilder später noch beschneiden will, kann dies mit einem von mir entwickelten Skript „Bildausschnitt“ für FixFoto machen.

Bildausschnitt — Skript für FixFoto

Damit ist es möglich, einen Beschnittrahmen im gewünschten Seitenverhältnis auf jedes Bild zu legen und die Bilder halbautomatisch zu beschneiden. Näheres dazu steht auf der Downloadseite des Skripts.

Staub und Kratzer automatisch aus Fotos entfernen

Ich habe letzens viele Familiendias eingescannt. Normalerweise sollte man die Dias vor dem Einscannen abpinseln oder -blasen, damit sie nicht so staubig eingescannt werden. Ich hatte aber nicht viel Zeit, deshalb habe ich zum Großteil drauf verzichtet. Viele Kratzer und Staubkörner fallen ja der in teureren Scannern integrierten hardwareseitigen Staub- und Kratzerentfernung zum Opfer, aber einige hartnäckige Bilder gibts es dennoch.

Und um die wollte ich mich kümmern. Aber nicht per Stempel- oder Reparierenwerkzeug, sondern möglichst automatisch. Also habe ich mich mal umgesehen, ob es nicht was in dieser Richtung auf dem Softwaremarkt gibt.

Fündig geworden bin ich mit dem Tool „Polaroid Dust & Scratch Removal“, welches zwar nicht mehr direkt bei Polaroid zu bekommen ist, aber dank archive.org noch von dort heruntergeladen werden kann.

2010-05-02-2_1

Das Programm erstellt eine Maske, die Informationen zu den erkannten Kratzern enthält und rechnet die Fehler dann aus dem Bild heraus. Man kann die Maske im Vorfeld einschränken, indem man mit dem Maskenwerkzeug einen Bereich eingrenzt. Im Bild oben habe ich das mal gemacht. Das Ergebnis sieht dann so aus:

2010-05-02-1_1

Man muss speziell bei diesem Bild zwar schon genauer hinschauen, aber man sieht, dass etliche Kratzer entfernt wurden. Nicht alle, aber die kann man auch im Nachhinein noch entfernen. Das funktioniert zwar nicht vollautomatisch, ist aber trotzem recht schnell. Im Fall von Staub markiert man einfach mit dem Staubpinsel die Körnchen, wie im folgenden Screenshot:

2010-05-02-3_1

Danach kann man mittels „Action > Create Mask From Dust Points “ eine Maske aus diesen Bereichen erstellen. Wichtig ist, dass der Halken bei „Adaptive Filtering“ im folgenden Dialog entfernt ist. Wenn die Maske steht, können die Staubkörner entfernt automatisch werden. Das Ergebnis sieht dann bei diesem Bild so aus:

2010-05-02-4_1

Für Kratzer gibt es ein ähnliches Werkzeug, mit dem die Kratzer einfach markiert werden können. Hat man sich erstmal eingearbeitet, ist geht das Arbeiten schnell von der Hand.

Polaroid Dust & Scratch Removal“ ist kostenlos, auf englisch und läuft auch unter Windows 7. Es gab sogar eine Version für den Mac und OSX. Die gibts ebenfalls bei archive.org.

Die Entschleierung einer Wette…

Bei „Wetten, dass..?“ am letzten Samstag (27.03.10)  hat der spätere Wettkönig das Publikum verblüfft, weil er aus einem Bild mit 2500 Sternen denjenigen fand, der einen Moment vorher entfernt wurde. Ich möchte mal zeigen, dass das weder Zauberei ist, noch irgendwas damit zu tun hat, wieviele Sterne man sich einprägen kann.

Der Sternenhimmel bestand bei „Wetten, dass..?“ aus zwei aneinander gereihten Bildern, die beide das Selbe zeigten, bis auf den Unterschied, dass ein Stern in einem der beiden Bilder fehlte. Mithilfe des Kreuz- oder Parallelblicks, den man in der Stereofotografie benutzt, um zwei nebeneinander stehende Bilder zu einem Stereobild zu verschmelzen, ist es kein Problem, den fehlenden Stern herauszufinden.

Wer das mal ausprobieren möchte und den Kreuz- oder Parallelblick nicht drauf hat, kann zunächst diese Anleitung verinnerlichen, um diese Sehtechnik zu erlernen. Wer es dann kann, darf sich an diesem Bild versuchen, den fehlenden Stern zu finden:

Hier gibts noch ein Bild und hier nocheins.

Das Bild wurde übrigens mit einem Skript für FixFoto erzeugt, was der Programmautor schnell zusammengebastelt hat.

Wie man sieht, basiert das Ganze auf ganz einfachen physischen Zusammenhängen. Wer das nicht glaubt, schnappt sich das obige Bild, lädt es sich in FixFoto und  drückt anschließend die Taste [A]. Im sich öffnenden Stereodialog einfach links unten „Halbfarbanaglyphe“ einstellen und den roten Punkt suchen. Das ist die Stelle, wo in einem der beiden Bilder der Stern fehlt.

Und wie man Stereofotos macht, die man mit dieser Sehtechnik anschauen kann, habe ich hier mal beschrieben. Ist ganz einfach.

Gerade gelesen…

…dass sich Sony endlich vom Memorystick verabschiedet und künftig nur noch SD-Karten unterstützt. Sie wollen wohl auch selber welche bauen. Wenn diese Memorysticks nicht so schweineteuer gewesen wären, hätte ich mindestens einen anno dunnemal in der 828 gehabt. So war es das Microdrive, für das ich im Jahr 2002 für 1GB immerhin noch 230,- bezahlt habe. Kann man sich heute gar nicht mehr vorstellen, wenn man beispielsweise für eine Micro-SD-Karte mit 2GB grad mal 5,- hinlegt. Glücklicherweise ist das Microdrive damals zweimal kaputt gegangen und wurde beim zweiten Mal gegen eine 2GB-Version getauscht, die auch nach fünf Jahren problemlos funktioniert.

Monitor korrekt einstellen, auch ohne Spyder & Co. – Teil 2

Gastbeitrag von Manfred Ritter:
Fotografenmeister – beschäftigt sich mit digitaler Fotografie und Bildbearbeitung. Bietet auch Coaching, Schulungen und Workshops für diesen Bereich an.

In dieser Fortsetzung des Beitrags „Monitor korrekt einstellen, auch ohne Spyder & Co. – Teil 1“ geht es um die Farbabstimmung des Monitors, wenn keine Profilierungs-Hardware vorhanden ist. Auch ohne Spyder und Co. ist es möglich, den Monitor für den Hausgebrauch so einzustellen, dass farbtreue Ergebnisse von Ausbelichtungen und Ausdrucken möglich sind.

Nach der in den Punkten 1 bis 5 des letzten Beitrags besprochenen Helligkeits- und Kontrasteinstellungen geht es hier weiter mit …

Teil 2 – Farbabstimmung des Monitors

1. Referenzbild auswählen

Für die Farbabstimmung ist ein Referenzbild nötig, das in ausreichender Größe als Farb-Referenz dienen kann. Dazu lässt man am besten eine Referenzdatei bei einem Belichtungsdienst auf echtes Fotopapier ausbelichten. Die meisten Geräte sind nämlich deutlich präziser eingestellt, als der heimische Drucker.

Am besten gönnt man sich eine ausreichende Größe, auf der man dann zur Regelung des Monitor-Farbgleichgewichts genügend erkennen kann. Ich rate zu 20×30 cm, mindestens aber 13×18 cm. Viele Ausbelichter bieten schon fertig ausbelichtete Referenzbilder an, zu denen sie dann die passende Datei mitliefern.

Der Photoindustrie-Verband e.V. und CIPHO – Chemieverband Imaging und Photo e.V. in der Karlstrasse 19-21 in 60329 Frankfurt am Main, in dem die meisten Laborgeräte- und Papierhersteller Mitglied sind, hat ein Testset entwickelt, das viele Labore nutzen.

DQ-Tool Monitor Reference file

Ich darf die nötigen Dateien des „Digital Quality Tools“ hier zum Download bereitstellen und bedanke mich herzlich dafür.

Dieses Testprint wird von vielen Laborbetreibern auf Anforderung fertig ausbelichtet verschickt. Wer die Datei selber ausbelichten lassen will, dem habe ich diese Datei im Bildformat 13 × 18 in 300 DPI bereitgestellt.
DQ-Tool Monitor Reference File

Für alle, die’s größer benötigen, habe ich eine Datei für das Bildformat 20 × 30 vorbereitet, die ebenfalls heruntergeladen und zum Ausbelichten geschickt werden kann.

Eine der beiden obigen Dateien sollte fertig ausbelichtet vorliegen, ehe die weiteren Schritte gegangen werden können.

Besitzer von Widescreen-Monitoren sei geraten, die große 20 × 30 cm-Datei belichten zu lassen, weil ich dafür ein für das Seitenverhältnis solcher Monitore optimiertes Monitortestbild gebaut habe.

Wer sein eigenes Testbild ausbelichten lassen will, sucht sich am besten einen Anbieter aus, der Profile für seinen Belichter zur Verfügung stellt. Die Geräte dieser Anbieter sind üblicherweise sehr gut und farbneutral eingestellt.

Ich lasse meine Testprints immer bei meinem Stammbelichter ausbelichten, weil der sowohl Druckerprofile für seine Maschinen, als auch Belichterformate für FixFoto anbietet, auf das ich mich in meiner Belichter-FAQ beziehe.

2. Testprint zum Ausbelichten schicken

Bitte die Belichter-Druckprofile, so vom Anbieter angeboten, für das Testprint keinesfalls selber in die Testdatei einbinden. Die Testdateien sollten unverändert zum Ausbelichten geschickt werden.Die oft angebotene automatische Optimierung des Belichters sollte ausgeschaltet werden. Bei guten Belichtern lässt sich die automatische Optimierung in der Bestellsoftware abwählen. Wird die Testdatei persönlich im Labor abgegeben, bitte nicht vergessen, den Laboranten auf das Abschalten der automatischen Optimierung hinzuweisen.

3. Referenzbilder für den Monitor

Erst wenn das ausbelichtete Testprint vorliegt, können die weiteren Monitoreinstellungen vorgenommen werden! Dafür wird eine Monitor-Referenzdatei benötigt, die den gleichen Inhalt hat, wie das ausbelichtete Testprint.

DQ-Tool Monitor Reference file
Referenzbild für DQ-Tool (für Monitore mit 1280 × 1024)

Das obige Monitor-Referenzbild für das DQ-Tool ist im Seitenverhältnis der Standardmonitore (1280 × 1024 Pixel) angelegt.

Es enthält im unteren Teil auch ein Testfeld, mit dem das Monitor-Gamma nochmals überprüft und gegebenenfalls angepasst werden kann. Bitte dieses Feld nur im 1:1-Modus (das Bild wird in 100 % Größe dargestellt) verwenden.

testprint_20x30monitor

Für das 20 × 30-Testbild habe ich die Monitor-Referenzdatei im Widescreen-Seitenverhältnis (1680 × 1050 Pixel) angelegt. Auch hier gilt für die Beurteilung des Monitor-Gamma die Vorgabe der 100%-Einstellung.

4. Farbgleichgewicht des Monitors einstellen

Anhand der entsprechenden Felder in den Monitor-Testbildern können vor dem Farbabgleich auch Helligkeit und Kontrast nochmals überprüft werden. Jetzt muss das Farbgleichgewicht des Monitors händisch so eingestellt werden, dass die Farben und Grautöne der Monitoranzeige möglichst genau mit denen des Testbildes übereinstimmen. Die grauen Bereiche des Monitor-Testbildes müssen nun neutral grau erscheinen. Für den Abgleich des Farbgleichgewichts kann, falls vorhanden, auch noch zusätzlich eine Graukarte herangezogen werden. Bitte unbedingt darauf achten, dass das ausbelichtete Testbild bei neutraler, gleichmäßiger und tageslichtähnlicher Beleuchtung betrachtet wird. Die besten Ergebnisse bringt ein künstliches Raumlicht von Tageslichtleuchtkörpern, wie im vorigen Beitrag beschrieben.

Weitere Infos und Hilfen habe ich auch dort gefunden.

Für eine realistische Monitordarstellung muss deshalb zuletzt noch, falls möglich, die Farbsättigung ein wenig reduziert werden.

5.  Achtung Stolpersteine!

Was zu beachten ist und aus technischen Gründen nicht optimal angepasst werden kann: Ausbelichter arbeiten mit subtraktivem Farbsystem (die drei übereinander gedruckten Grundfarben ergeben Schwarz), während der Monitor additiv darstellt (drei übereinander angezeigte Grundfarben ergeben Weiß). Das bedeutet in der Praxis, dass die „Lichtfarben“ die der Monitor darstellt, auf einem Farbbild nicht erreicht werden können. Alle am Monitor leuchtenden, reinen Grundfarben lassen sich im Farbbild nicht darstellen. Da hilft auch keine Monitor-Kalibrierung.

Tintenstrahldrucker gleichen dieses Manko oft mit zusätzlichen, leuchtenden Farben (Canon) oder optischen Aufhellern in den Tinten aus. Deshalb erscheint ein Tintenstrahl-Bild meistens leuchtender als ein Foto-Abzug. Beim Foto-Abzug sind die Farben dafür natürlicher. Reine Farben, zum Beispiel die eines Firmenlogos, lassen sich meist nur auf Tintenstrahldruckern relativ farbexakt darstellen.


Der Hobby-Bildbearbeiter sollte jetzt, falls er den beschriebenen Weg verfolgt hat, sowohl bei der Bildbearbeitung, als auch mit dem ausbelichteten oder mit dem heimischen Drucker ausgedruckten Bild auf gute, mindestens aber brauchbare Ergebnisse kommen. Werden Bilder zum Ausbelichten gegeben, sollte dann grundsätzlich die automatische Bildoptimierung des Belichters abgewählt werden, um wiederholbare Ergebnisse zu erhalten.

Wer seine Bilder im Web veröffentlicht, sich besondere Mühe bei der Optimierung gegeben hat, wird sich vielleicht fragen, welche Möglichkeiten bestehen, den fremden Betrachter der wunderbar optimierten Galerie zu unterstützen und einem optimalen Betrachtungserlebnis zu verhelfen. Diesem Thema will ich mich demnächst in einem extra Beitrag widmen. Bis dahin wünsche ich viel Spaß bei der Bildbearbeitung und viele schöne, bunte Bilder.

Windows Live Fotogalerie 2009 Beta

Ich hab ja vor rund einem Jahr schonmal über die Live Fotogalerie geschrieben, die damals noch Beta war. Zwischendurch war sie dann nicht mehr Beta, sondern wurde ganz normal über das Windows Live-Paket verteilt.

livefotogaleriebeta01a_1

Jetzt gibts wieder eine Beta, die ich mal ausprobiert habe. Im Gegensatz zu Vorversion hat Microsoft die Oberfläche überarbeitet, alles wirkt irgendwie leichter. Nicht so überladen, wie beispielsweise auch Picasa. Natürlich ist der Funktionsumfang im Gegensatz zu diesem auch geringer, aber die für mich wichtigen Funktionen, wie die Unterstützung für IPTC-Keywords ist in der Live Fotogalerie besser umgesetzt.

Eine neue Funktion, die ich noch nicht weiter ausprobiert habe, ist die automatische Gesichtserkennung. So wird es wohl ausreichen, ein Gesicht einmal mit einer Person zu verknüpfen, damit die Software diese Person dann künftig auf den Fotos erkennt. Ist ja mal ein interessanter Ansatz, um den Inhalt von Bildern automatisch zu bestimmen.

Die Diashow (und der Bildschirmschoner) kann immer noch keine Kreuzblende (weiche Überblendung) von zwei Fotos. Immerhin müssen die Bilder nicht mehr zwingend in die an die Live-Serie angeschlossene Live-Spaces-Bildergalerie geladen werden, sondern es gibt auch Plugins für verschiedene andere Dienste, wie beispielsweise flickr, facebook, youtube, smugmug und andere. Panoramen kann ein eingebautes Programm erzeigen, was aber keine Einstellmöglichkeiten zulässt.

Fazit: Insgesamt sind die Änderungen eher zurückhaltend ausgefallen, wer aber nur Bilder verwalten möchte und keinen Schnickschnack braucht, ist mit der Live Fotogalerie gut beraten.

Monitor korrekt einstellen, auch ohne Spyder & Co. – Teil 1

Gastbeitrag von Manfred Ritter:
Fotografenmeister – beschäftigt sich mit digitaler Fotografie und Bildbearbeitung. Bietet auch Coaching, Schulungen und Workshops für diesen Bereich an.

Oft wundert sich der Anwender, wenn er mit viel Mühe mittels FixFoto oder einem anderen Bildbearbeitungsprogramm ein Bild optimiert hat und es anschließend, zum Beispiel als ausbelichtetes Farbbild völlig anders aussieht, als auf dem Monitor.

Das liegt oft daran, daß der Monitor ohne Anpassungen in den Werkseinstellungen einfach nur angeschlossen und benutzt wird. Oft sind die Herstellereinstellungen für die Bildbearbeitung vollkommen ungeeignet. Wie man das selbst, auch ohne große Investition in ein Profilierungssystem (wie dem Spyder) ändern kann, will ich hier nochmal Schritt für Schritt erklären.

Teil 1 – Helligkeit und Kontrast

Ein professionell kalibrierter und profilierter Monitor ist dann unerlässlich, um zum Beispiel für die Zusammenarbeit mit Druckereien (die im CMYK-Farbraum arbeiten) wiederholbare, abgestimmte Ergebnisse zu erreichen. Auch dann, wenn Bilddateien zwischen Benutzern ausgetauscht und in einen profilierten Workflow eingebunden werden sollen, ist die Monitorprofilierung zwingend nötig. Hier sollte, neben einem guten Monitor, unbedingt in Profilierungs-Hardware investiert und die Monitordarstellung damit optimiert werden.

Für alle anderen, die üblicherweise im sRGB-Modus arbeiten, also auch Digital-Drucke, etc., ist eine hardwaremäßige Monitorkalibrierung im Normalfall nicht zwingend nötig. Es genügt, den Monitor visuell von Hand möglichst gut einzustellen. Im sRGB-Modus arbeitet zum Beispiel das Windowsbetriebssystem, die Ausbelichter, die meisten Scanner, Drucker und sonstigen Windows-kompatiblen Zusatzgeräte und auch die meisten guten Monitore. Auch FixFoto arbeitet im sRGB-Modus, kann aber zusätzlich mit hardwareprofilierten Monitorprofilen umgehen.

Wie sollte man nun vorgehen, wenn man keine Kalibrierungssoftware besitzt?

1. Für konstante Lichtverhältnisse am Arbeitsplatz sorgen

Es sollte keine Beleuchtung unmittelbar auf die Displayfläche des Monitors scheinen. Der Raum sollte möglichst abgedunkelt werden, die Lichtverhältnisse sollten sich den Tag über so wenig wie möglich ändern. Eventuell auch das Display mit schwarzer Pappe oder entsprechender Haube abschatten. Die Arbeitsfläche mit tageslichtähnlichem Licht ausleuchten.

2. sRGB-Modus im Monitor einstellen

Unterstützt der Monitor den sRGB-Modus, sollte dieser in den Monitor-Grundeinstellungen als Standardeinstellung vorgewählt werden. Das Bild könnte dann deutlich wärmer (gelblicher) erscheinen, als mit den voreingestellten Werkseinstellungen. Das ist normal und gewollt. Das Auge des Benutzers gewöhnt sich automatisch daran, also kein Grund zur Panik. Ansonsten wird für den Start am besten ein Bildschirm-Modus mit ca. 6000 oder 6500 K ausgewählt.

3. Kontrast am Monitor voreinstellen

Bei den meisten Röhrenmonitoren sollte als Basis zu Anfang der Kontrast erst einmal auf 100%, bei modernen Flachbild-Monitoren eventuell zwischen 50 und 100% eingestellt werden.

4. Testbild im Bildbearbeitungsprogramm öffnen

Testbild_Bildschirmkontrast
Für größere Ansicht klicken!

In der Bildbearbeitung (nicht im Browser!) das Bildschirmkontrast-Testbild öffnen und möglichst in der Ganzbildschirm-Ansicht anzeigen.

5. Helligkeit & Kontrast justieren

Helligkeit so eindrehen, daß sich beim Bildschirmkontrast-Testbild die beiden Kamera-Piktogramme in der jeweils weißen und schwarzen Fläche eben noch gut vom jeweiligen Hintergrund abheben.

Unter den beiden Kamera-Piktogrammen sind auf jeder Seite drei Zahlenreihen zu lesen. In der weißen Hälfte von unten nach oben 230-230.230, dann 250-250-250 und zuletzt direkt unter dem Kamerapiktogramm 253-253-253. Auf der schwarzen Seite sind die drei Zahlenreihen gleich aufgebaut und enthalten von unten nach oben 060-060-060, 020-020-020 und 010-010-010. Es handelt sich dabei um die RGB-Werte der jeweiligen Grautöne.

Jetzt muß der Kontrast am Monitor in Verbindung mit der Helligkeit wechselweise so eingeregelt werden, daß sich möglichst alle drei Zeilen gerade noch sichtbar vom Hintergrund abheben. Wer in der weißen Hälfte jetzt noch die 253-253-253 und in der rechten Hälfte 010-010-010 sieht, kann sich zu einem sehr guten Monitor gratulieren. Wer nur jeweils zwei Zeilen sieht, kann noch gut Bilder bearbeiten. Wer nur je eine oder auch gar keine der je drei Zeilen sieht, sollte in einen neuen Monitor investieren, wenn damit Bilder bearbeitet werden sollen.

02-kontrast-buea

Die in der obigen Abbildung rot gekennzeichneten Bereiche müssen jetzt weiß, die cyan gekenzeichneten Bereiche schwarz erscheinen. Jetzt sind Helligkeit und Kontrast für die Bildbearbeitung ausreichend gut eingestellt.

Weiter zu Teil 2 – Farbabstimmung des Monitors

Standard für Stereobilder?

Wie golem schreibt, hat die CIPA – eine Vereinigung japanischer Kamerahersteller – ein Whitepaper veröffentlicht, was festlegen soll, welche Informationen in den Stereoausgangsbildern festgelegt werden sollen. Ich fände es hilfreicher, jegliche Kameras oder auch nur bestimmte mit einer Synchronisationsschnittstelle auszustatten, damit auch zwei Kameras direkt synchron ausgelöst werden können, ohne jedesmal einen tierischen Hermann betreiben zu müssen.