News

Apple aktiviert Deep Fusion-Kamera im iPhone 11

Apple will in der nächsten iOS-13-Beta die Funktion Deep Fusion aktivieren, die auf dem iPhone-Event bereits gezeigt wurde. Die Kamera errechnen aus mehreren automatisch erzeugten Aufnahmen ein besonders detailreiches Bild.

Die Deep-Fusion-Fotofunktion für die neuen iPhones (11 und 11 Pro) wird in der Entwickler-Beta von iOS 13 aktiviert, die als nächstes freigegeben wird. Wie das System genau funktioniert, hat The Verge von Apple erfahren.  Das Ziel sind besonders gut belichtete, detailreiche Aufnahmen auch bei mittelmäßigen  Lichtverhältnissen. Im Vergleich zum schon möglichen Nachtmodus sieht man die Nachbearbeitung nicht.

Die Kamera macht künftig schon drei Aufnahmen, bevor der Auslöser gedrückt wird - mit sehr kurzen Verschlusszeiten. Das sorgt dafür, dass scharfe aber eventuell zu unterbelichtete Bilder entstehen. Die richtige belichteten Bildern werden gemacht, wenn der Nutzer den Auslöser drückt. Diese sorgen für die Details. Eines davon ist eine Langzeitaufnahme. Nun werden diese Aufnahmen miteinander verrechnet zum endgültigen Bild.

Das Ergebnis ist eine vermeintliche Langzeitbelichtung ohne die üblichen Nachteile: Das Bildmotiv ist scharf, auch wenn es sich leicht bewegt, die Farben sind natürlich und das Rauschen hält sich in Grenzen, auch wenn das Licht schlecht war.

Wie die Bilder miteinander verrechnet werden, ist das eigentliche Geheimnis hinter Deep Fusion, denn Apples Software erkennt, was sich auf den Bildern befindet zumindest im Groben. So lässt sich gewichten, wo es eher um Details geht und wo um Farben und wo um Leuchtkraft. Die Berechnung dauert nach Angaben von The Verge etwa eine Sekunde.

Wir sind gespannt, wie die Bilder in der Realität aussehen - und ob damit die Fotografie besser wird oder der Computer künftig einen Einheitsbrei fabriziert. Was meint ihr?

Mehr zum Thema
zur Startseite