iOS 26은 Apple의 Visual Intelligence 기술에서 상당한 진화를 소개하여 단순한 카메라 기반 인식에서 장치의 화면 내용에서 직접 광범위한 이미지 구문 분석으로 기능을 확장합니다. 이 업그레이드는 사용자가 iPhone의 앱 및 스크린 샷에서 이미지 및 시각적 컨텐츠와 상호 작용하는 방식을 재정의합니다.
시각적 지능은 iOS 18.2에서 iPhone 카메라가 주변 환경을 설명하고 텍스트를 번역하며 식물 및 동물과 같은 다양한 물체를 실시간으로 식별 할 수있는 카메라 제어 기능으로 시작되었습니다. iOS 26을 통해 Apple은 시각적 지능을보다 포괄적 인 시각적 분석 도구로 변환하여 카메라가 물리적으로 관찰하는 내용으로 유틸리티를 더 이상 제한하지 않지만 스크린 샷 및 앱 이미지를 포함하여 장치의 스크린 내용으로 깊숙이 확장되었습니다.
주요 하이라이트는 사용자가 스크린 샷을 찍는 데 사용되는 것과 동일한 버튼을 눌러 화면 컨텐츠에서 시각적 지능을 활성화 할 수 있다는 것입니다. 이 동작은 감지 된 컨텐츠 유형에 따라 여러 지능형 옵션을 통해 사용자가 캡처 된 시각적 데이터와 상호 작용할 수있는 인터페이스를 트리거합니다. 이 시스템은 스크린 샷 또는 화면 캡처 내의 특정 객체 또는 텍스트 세그먼트에 대한 이미지를 해부하고 관련 정보, 검색 결과 또는 캘린더 이벤트 추가 또는 인식 된 세부 사항에서 할 일 목록 작성과 같은 직접 작업을 제공 할 수 있습니다.
기술적 인 관점에서 볼 때 Visual Intelligence의 이미지 구문 분석은 광범위한 "Apple Intelligence"생태계의 일부인 Apple의 정교한 온거비 AI에 의해 구동됩니다. 이 생태계는 Siri, 쓰기 도구 및 Apple 장치의 생태계 인식을 향상시킵니다. Op-Device 처리에 대한 의존은 외부 서버에 데이터 업로드를 피함으로써 사용자 개인 정보를 보존하며, 처리 요구에는 새로운 iPhone 모델 (iPhone 15 Pro, 16 Series, 17 Series) 및 호환 iPad 및 Mac에서만 발견 된 강력한 실리콘이 필요합니다.
시각 지능이 식별 할 수있는 객체의 유형은 주로 확장되었습니다. 기본 동물과 식물 외에도 이제 카메라 입력 및 스크린 샷에서 예술 작품, 책, 랜드 마크, 자연 랜드 마크 및 조각품을 인식합니다. 이 광범위한 스펙트럼 인식을 통해 시스템은 그림 또는 조각 식별에서 스크린 샷 또는 라이브 카메라보기에서 보이는 비즈니스에 대한 운영 세부 사항을 제공하는 것까지 다양한 상황 데이터를 제공 할 수 있습니다.
개발자는 또한 업그레이드 된 APP Intents API를 통해 이러한 향상을 통해 이익을 얻습니다. 이는 타사 앱이 시각적 지능과 통합 할 수 있습니다. 이를 통해 스크린 샷에서 운동 계획을 추출하는 피트니스 앱, 레시피 이미지를 식료품 목록으로 변환하는 앱 및 화이트 보드 사진을 실행 가능한 콘텐츠로 해석하는 생산성 도구와 같은 혁신적인 응용 프로그램이 가능합니다.
Visual Intelligence 기능의 실질적인 예 중 하나는 이벤트 전단지의 스크린 샷을 찍고 AI에 날짜 및 이벤트 세부 사항을 구문 분석하고 캘린더에 직접 추가 할 수 있습니다. 이 시스템은 또한 사용자가 화면에 특정 영역이나 객체를 동그라 할 수 있도록하여 스크린 샷 내에서 대상 이미지 검색을 수행하여 웹 기반 이미지 검색 결과 (Google 이미지 검색과 같은)를 보낼 수 있습니다. 사용자는 스크린 샷의 요소에 대한 Chatgpt와 같은 챗봇을 물어 보면서 시각적 지능을 대화식 AI와 연결하여보다 대화식 경험을 제공 할 수도 있습니다.
이 이미지 구문 분석 및 컨텐츠 분석 기능은 단순히 객체를 식별하거나 검색을 수행하는 것 이상입니다. 이를 통해 사용자는 상황에 따라 즉각적이고 의미있는 조치를 취할 수 있습니다. 예를 들어, Visual Intelligence를 통해 스크린 샷에서 볼 수있는 식당 메뉴에서 음식을 주문하거나 예약하거나 장소의 운영 시간을 보거나 시각적으로 발견 된 연락처 정보를 사용하여 전화를 직접 배치 할 수 있습니다. 텍스트를 구문 분석하는 능력은 실시간 번역, 요약 및 큰 소리로 읽을 수있게하여 접근성 및 교차 이해를 향상시킵니다.
Visual Intelligence의 아키텍처는 속도와 개인 정보를 위해 크게 최적화되어 있습니다. 이 기능의 실시간 응답 및 분석은 인터넷 연결을 필요로하지 않고 완전히 구사하여 발생하므로 사용자는 클라우드 처리와 관련된 대기 시간 또는 개인 정보 보호 문제없이 즉각적인 결과를받을 수 있습니다. 이로 인해 상황 인식 컴퓨팅의 선구적인 단계가되어 수동 미디어 발표자에서 시각적 데이터를 유동적으로 해석하고 행동하는 사전 보조원으로 장치를 이동시킵니다.
iOS 26을 사용하면 시각적 지능을위한 시스템의 인터페이스는 사용자 친화적이고 직관적입니다. 스크린 샷 버튼 또는 카메라 컨트롤을 통해 기능을 트리거 한 후 사용자는``Ask, Â auding, Â auge, Â 또는 특정 앱 작업과 같은 옵션으로 표시되어 완벽한 상호 작용을 허용합니다. Intelligent Parsing Engine은 텍스트, 아트, 랜드 마크, 연락처 정보 또는 이벤트 세부 사항 인 컨텐츠 유형을 지능적으로 결정하고 그에 따라 출력 및 사용 가능한 사용자 작업을 동적으로 조정합니다.
계산 강도는 Visual Intelligence의 전체 기능이 Apple의 가장 고급 칩셋을 위해 예약되어 있음을 의미하기 때문에 장치 지원 측면에서 제한 사항이 남아 있습니다. 또한 특정 객체 인식 기능에 대한 언어 지원은 현재 주로 영어로되어 있으며 Apple은 기능이 성숙함에 따라 광범위한 다국어 지원을 수행합니다.
요약하면, iOS 26의 Visual Intelligence Image Parsing은 AI 기반 시각적 분석을 일상적인 스마트 폰 사용에 통합하는 데 상당한 발전을 나타냅니다. 이 기술은 반응 형 카메라 기반 객체 인식에서 스크린 콘텐츠를 실행 가능한 통찰력으로 변환하는 사전 도구로 이동하여 사용자가 새로운 유동적 인 방식으로 장치 및 정보와 상호 작용할 수 있도록합니다. 이 업그레이드는 컨텍스트와 의도적 인 모양 상호 작용, 비전, 지식 및 개인 정보 보호 및 대응 성을위한 조치를 깊게 혼합하는 미래의 Apple 인터페이스를 향한 기본 단계를 설정합니다.
***위의 상세한 진화, 기능, 개발자 통합, 사용자 인터페이스 및 실제 사례는 2025 년에 다양한 Apple 관련 소스 및 전문가 범위에서 발표되고 정교한 IOS 26의 시각적 지능의 이미지 구문 분석 기능의 본질을 나타냅니다.