Dans iOS 13, Apple a finalement lancé une synchronisation multi-caméra support ouvert qui permet aux applications de capture des photos de simultanément à partir de plusieurs microphones et des caméras sur l'iPhone ou l'iPad, vidéo, audio, des métadonnées et des informations approfondies.
Depuis OS X Lion, Apple a soutenu à plusieurs caméras à long terme sur la capture macOS, mais jusqu'à présent, les limitations matérielles ne permettent pas de lancer pour l'API iPhone et iPad.
iOS 13 nouvelles fonctionnalités et API permettra aux développeurs d'applications pour fournir caméra frontale simultanée et la caméra arrière à la vidéo d'émission, audio ou images.
iOS supports 13 multi-caméras w / AVCapture
L'introduction de nouvelles fonctions au cours WWDC19, Apple a démontré une application d'enregistrement vidéo PIP, l'application de l'enregistrement de la caméra avant, mais peut également enregistrer de la caméra principale.
L'application de démonstration permet également des capacités d'enregistrement vidéo, et les fonctions de commutation instantanée des deux caméras pendant les applications de lecture de photos. Cette fonctionnalité permet également aux développeurs de contrôler à double caméra TrueDepth, flux vidéo séparé comprenant une vue d'un téléobjectif de vue arrière ou arrière de l'objectif grand angle.
iOS 13 prend en charge les nouvelles fonctionnalités de multi-caméras, ne sont disponibles que dans le nouveau matériel, y compris l'iPhone XS, iPhone XS Max, iPhone et iPad XR Pro.
Listes d'un certain nombre d'Apple de formats prennent en charge la capture multi-caméras (illustré ci-dessus), les développeurs remarquent qu'il serait fonctions de la caméra normale imposent des limites artificielles.
En raison des limitations de puissance des appareils mobiles, avec un autre Mac, iPhone et iPad sera limitée à une seule session multi-caméra, ce qui signifie que vous ne pouvez pas ouvrir plusieurs caméras dans de multiples applications, ou plusieurs caméras utilisant plusieurs sessions. Il y aura une variété de portefeuille de périphériques pris en charge, ce qui indique la combinaison de caméras de capture sur certains dispositifs de soutien.
Apple lui-même ne pas utiliser une nouvelle fonctionnalité multi-caméra dans l'application de la caméra iOS 13, mais nous pensons qu'il est maintenant en train d'émerger, comme il a été officiellement lancé à l'appui AVCapture.
Segmentation sémantique Mattes (masque de segmentation sémantique)
Les nouvelles fonctionnalités dans iOS 13 capturées par la caméra ainsi que le masque de segmentation sémantique. 12 Dans iOS, Apple utilisé en interne Portrait Effets Matte contenu photo est en mode portrait au sujet et arrière-plan distinct. Dans iOS 13, Apple a introduit le soi-disant sémantique Segmentation Mattes pour identifier la peau, les cheveux et les dents, et d'améliorer encore les informations via l'API, pour les développeurs à utiliser.
Lors de la conférence WWDC, Apple a démontré l'application de démonstration des nouvelles technologies, permettra la séparation des images de sujet et l'arrière, et les cheveux, la peau et des dents isolées ajouter facilement des effets, y compris la peinture de visage et changement de couleur des cheveux (comme indiqué ci-dessus) .
Les développeurs peuvent en apprendre davantage sur le support multi-caméra et la segmentation sémantique sur le site Web d'Apple, il fournit également un exemple de code montre l'application.