iOS 13 Beta für Entwickler

Apple aktiviert Deep Fusion-Kamera im iPhone 11

Apple will in der nächsten iOS-13-Beta die Funktion Deep Fusion aktivieren, die auf dem iPhone-Event bereits gezeigt wurde. Die Kamera errechnen aus mehreren automatisch erzeugten Aufnahmen ein besonders detailreiches Bild.

Von   Uhr

Die Deep-Fusion-Fotofunktion für die neuen iPhones (11 und 11 Pro) wird in der Entwickler-Beta von iOS 13 aktiviert, die als nächstes freigegeben wird. Wie das System genau funktioniert, hat The Verge von Apple erfahren.  Das Ziel sind besonders gut belichtete, detailreiche Aufnahmen auch bei mittelmäßigen  Lichtverhältnissen. Im Vergleich zum schon möglichen Nachtmodus sieht man die Nachbearbeitung nicht.

Jetzt kostenfrei ausprobieren: Mac Life+

Mehr Apple-Wissen für dich.

Mac Life+ ist die digitale Abo-Flatrate mit exklusiven, unabhängigen Tests, Tipps und Ratgebern für alle Apple-Anwenderinnen und Anwender - ganz egal ob neu mit dabei oder Profi!

Mac Life+ beinhaltet

  • Zugriff auf alle Online-Inhalte von Mac Life+
  • alle digitalen Ausgaben der Mac Life, unserer Sonderhefte und Fachbücher im Zugriff
  • exklusive Tests, Artikel und Hintergründe vorab lesen
  • maclife.de ohne Werbebanner lesen
  • Satte Rabatte: Mac, iPhone und iPad sowie Zubehör bis zu 15 Prozent günstiger kaufen!

✔ SOFORT gratis und ohne Risiko testen: Der erste Monat ist kostenlos, danach nur 4,99 Euro/Monat.
✔ Im Jahresabo noch günstiger! Wenn du direkt für ein ganzes Jahr abonnierst, bezahlst du sogar nur 2,99 Euro pro Monat.

Die Kamera macht künftig schon drei Aufnahmen, bevor der Auslöser gedrückt wird - mit sehr kurzen Verschlusszeiten. Das sorgt dafür, dass scharfe aber eventuell zu unterbelichtete Bilder entstehen. Die richtige belichteten Bildern werden gemacht, wenn der Nutzer den Auslöser drückt. Diese sorgen für die Details. Eines davon ist eine Langzeitaufnahme. Nun werden diese Aufnahmen miteinander verrechnet zum endgültigen Bild.

Das Ergebnis ist eine vermeintliche Langzeitbelichtung ohne die üblichen Nachteile: Das Bildmotiv ist scharf, auch wenn es sich leicht bewegt, die Farben sind natürlich und das Rauschen hält sich in Grenzen, auch wenn das Licht schlecht war.

Wie die Bilder miteinander verrechnet werden, ist das eigentliche Geheimnis hinter Deep Fusion, denn Apples Software erkennt, was sich auf den Bildern befindet zumindest im Groben. So lässt sich gewichten, wo es eher um Details geht und wo um Farben und wo um Leuchtkraft. Die Berechnung dauert nach Angaben von The Verge etwa eine Sekunde.

Wir sind gespannt, wie die Bilder in der Realität aussehen - und ob damit die Fotografie besser wird oder der Computer künftig einen Einheitsbrei fabriziert. Was meint ihr?

Mehr zu diesen Themen:

Diskutiere mit!

Hier kannst du den Artikel "Apple aktiviert Deep Fusion-Kamera im iPhone 11 " kommentieren. Melde dich einfach mit deinem maclife.de-Account an oder fülle die unten stehenden Felder aus.

Die Überschrift ist nicht ganz richtig, weil Apple das ja erst später bringt und nicht jetzt freischaltet.

Naja ist bei maclife leider inzwischen so.
Wenn da gestanden hätte wird irgendwann aktiviert, würden die wenigsten weiter lesen und so nicht auf die Seite kommen und keine Werbeeinnahmen generieren.

Die Kommentare für diesen Artikel sind geschlossen.