/Tech

Ein neuer Google-Algorithmus verschönert Fotos, noch bevor ihr sie schießt

Benedikt Plass-Fleßenkämper 08.08.2017

Bildbearbeitung ist heutzutage kein Kunststück mehr, jedes Smartphone bietet Filter und rudimentäre Anpassungsoptionen, um Fotos schnell und einfach aufzuhübschen. Dank eines neuen Algorithmus könnte die manuelle Bearbeitung von Bildern künftig sogar ganz entfallen.

Millionen Menschen posten täglich unzählige Fotos in sozialen Netzwerken. Doch nur in den seltensten Fällen geben diese Bilder ein naturgetreues Abbild der Realität wieder: Filter lassen Farben leuchten, heben Kontraste hervor und machen selbst einfache Schnappschüsse zu kleinen Kunstwerken. Was früher Fotoprofis vorbehalten war, schüttelt heute jeder Hobby-Knipser mühelos aus dem Ärmel – zumindest dem Anschein nach.

Tatsächlich liegen zwischen professionell retuschierten Fotos und aufgemöbelten Handy-Shots technisch und im Detail betrachtet noch immer Welten. Doch auch dieser Unterschied könnte dank Künstlicher Intelligenz bald verschwinden. Forscher des Massachusetts Institute of Technology (MIT) arbeiten gemeinsam mit Google an einem Algorithmus, der Fotos eigenständig auf dem Niveau eines professionellen Fotografen optimiert.

Um das zu erreichen, haben die Forscher die Software mit 5000 professionell retuschierten Fotos gefüttert. Auf Basis dieser Informationen erkennt die KI nun, welche Bereiche eines Bildes angepasst werden sollten und auf welche Weise die Optimierung zu erfolgen hat. Klingt zunächst nach einem automatisierten Fotofilter und damit wenig spektakulär. Allerdings hebt sich der Algorithmus durch einige Besonderheiten von bereits existierenden Lösungen ab.

So erfolgt die Berechnung der Bildoptimierung innerhalb von 20 Millisekunden. Das ist so schnell, dass Fotos bereits optimiert auf dem Bildschirm angezeigt werden, bevor der Nutzer den Auslöser gedrückt hat. Zudem erfolgt die Bearbeitung der Bilder selektiv. Während die meisten Fotofilter ein Bild komplett verändern, erkennt der Algorithmus einzelne Bereiche eines Bildes und optimiert diese unabhängig vom Rest des Fotos.

Bei einem Selfie vor sonnigem Hintergrund können etwa Gesichter automatisch aufgehellt werden, ohne dass das restliche Bild ebenfalls heller wird. Die Farbsättigung von Wasser, Himmel oder Bäumen könnte standardmäßig hochgesetzt werden, ohne dass andere Bereiche unnatürlich erscheinen. Dabei sei es laut den Forschern möglich, dem Algorithmus die persönlichen Vorlieben anzutrainieren, indem man ihn mit selbst bearbeiteten Beispielbildern versorgt. Anhand dieser kann er dann den Stil eines jeden Fotografen imitieren.

Besonders interessant an der neuen Technik ist der minimale Rechenaufwand: Das Programm arbeitet mit einer niedrig aufgelösten Version des Bildes, nimmt mit diesem die Analyse zur Optimierung und die benötigten Änderungen vor und rechnet es dann wieder in eine hochaufgelöste Version hoch. Auf diese Weise erspart sich der Algorithmus die Berechnung von Millionen Pixeln und funktioniert auf jedem Smartphone. Bis er dort zum Einsatz kommt, dürfte allerdings noch einige Zeit vergehen, aktuell befindet sich das Projekt noch in der Forschungsphase.

Allerdings könnten existierende Technologien schon bald von der neuen Methode profitieren. So sollen HDR-Fotos etwa durch den Algorithmus in Echtzeit ausgegeben werden können. Aktuell benötigt die Zusammenführung mehrerer, unterschiedlich belichteter Bilder noch etwa eine halbe Sekunde. „Diese Technologie hat das Potenzial, sehr nützlich für die Echtzeit-Optimierung von Bildern auf Smartphones zu sein“, sagt Jon Barron, Senior Research Scientist bei Google. Ob und wann die Technologie tatsächlich auf Android-Handys Verwendung findet, verraten die Forscher aktuell aber nicht.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden