Loading...

iPhone skieruje twój wzrok w aparat, nawet kiedy patrzysz na ekran. Tak działa nowa funkcja FaceTime w iOS 13

iPhone skieruje twój wzrok w aparat, nawet kiedy patrzysz na ekran. Tak działa nowa funkcja FaceTime w iOS 13
  1. SPIDER'S WEB
  2. Technologie
  3. Tech
  4. Oprogramowanie

Człowiek zauważa nawet najmniejsze odchylenie wzroku innej osoby. Na twarze i oczy patrzymy przez dosłownie całe swoje życie, od momentu narodzin. Półroczne dziecko doskonale wie, kiedy rodzic patrzy na nie, a kiedy gdzieś obok. Od tego czasu człowiek tylko doskonali tę umiejętność.

Nie bez powodu w telewizji stosuje się promptery, a vlogi nagrywa się patrząc w obiektyw, a nie ekran. Widzowie od razu są w stanie wychwycić, że osoba przed kamerą nie miała wzroku skupionego na obiektywie, a więc nie utrzymywała z nami „kontaktu wzrokowego”.

Apple poprawi twoje oczy w rozmowach FaceTime. W iOS pojawi się automatyczna zmiana pozycji oczu, generowana na żywo.

Jest to jedna z nowości, która zawitała do trzeciej bety w iOS 13. W ustawieniach FaceTime jest teraz nowe pole „FaceTime Attention Correction” odpowiedzialne za korektę wzroku. Po jego włączeniu iPhone będzie korygował pozycję źrenic.

iPhone skieruje twój wzrok w aparat, nawet kiedy patrzysz na ekran. Tak działa nowa funkcja FaceTime w iOS 13

Brzmi to futurystycznie… i takie właśnie jest. Smartfon na żywo analizuje twarz i tworzy de facto grafikę, ponieważ źrenice są wycinane i przesuwane w odpowiednie miejsce. To wszystko, klatka po klatce, jest realizowane na żywo. Apple wykorzystuje do tego ARKit i mapowanie twarzy.

  • Efekty wyglądają w praktyce tak, jak na dwóch załączonych zrzutach ekranu. Widać na nich odpowiednio ujęcie z rozmowy prowadzonej przy wyłączonej i przy włączonej funkcji „FaceTime Attention Correction”. Co ciekawe, kiedy przy włączonej funkcji korekcji spojrzymy w kamerkę, oczy będą wyglądać tak, jakbyśmy patrzyli wyżej, ponad smartfon.

    Funkcja jest w fazie beta, ale powinna trafić w gotowej wersji do iOS 13.

    Na razie nie wiadomo dokładnie, które modele iPhone’a wspierają nowość. Sprawdziliśmy, że funkcja działa na iPhonie XR i XS Max. Ciekaw jestem, czy podobne rozwiązanie trafi kiedyś do Androida. Pomysł jest świetny i warto byłoby go wdrożyć na całym rynku. To dalece bardziej przydatny drobiazg, niż mapowanie twarzy w filtrach na Snapchacie.

    Tagi: ApplefacetimeFaceTime Attention CorrectioniOS 13ios 13 beta 3
  • Powiązane artykuły