나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2025-12-22 16:57:02

Apple Intelligence


{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px);"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break: keep-all;"
삼성 갤럭시 Galaxy AI
MainFunc Genspark
Apple Apple Intelligence
OpenAI Operator(모델: CUA)
Monica Manus AI
구글 Google Jarvis
취소선: 미출시 }}}}}}}}}

[include(틀:Apple의 소프트웨어
,이름=Apple Intelligence
,아이콘=Apple Intelligence 아이콘.svg
,출시일=2024년 10월 29일
,유형링크1=생성형 인공지능
,유형텍스트1=생성형 인공지능
,OS1링크=iOS 18
,OS1텍스트=iOS 18.1
,OS2링크=iPadOS 18
,OS2텍스트=iPadOS 18.1
,OS3링크=macOS Sequoia
,OS3텍스트=macOS Sequoia (15.1)
,OS4링크=visionOS 2
,OS4텍스트=visionOS 2.4
,OS5링크=watchOS 11
,OS5텍스트=watchOS 11
,OS꼬리말=iPhone 15 Pro\, iPhone 15 Pro Max\, iPhone 16 및 이후 모델\, iPad mini(A17 Pro 모델)\, 그리고 M1 이후 iPad 및 Mac 모델에서 사용할 수 있습니다.
,T4제목=지원 언어
,T4내용=한국어\, 중국어(간체)\, 영어(호주\, 캐나다\, 인도\, 아일랜드\, 뉴질랜드\, 싱가포르\, 남아프리카 공화국\, 영국\, 미국)\, 프랑스어\, 독일어\, 이탈리아어\, 일본어\, 포르투갈어(브라질)\, 스페인어
,T4꼬리말=곧 중국어(번체)\, 덴마크어\, 네덜란드어\, 노르웨이어\, 스웨덴어\, 포르투갈어(포르투갈)\, 베트남어 및 튀르키예어로 제공될 예정입니다.
,링크1URL=https://www.apple.com/kr/apple-intelligence/
,링크1텍스트=Apple
,링크2URL=https://support.apple.com/ko-kr/121115
,링크2텍스트=Apple Intelligence를 받는 방법
)]
1. 개요2. 지원 기기3. 기능
3.1. 자연어 처리
3.1.1. 알림3.1.2. 글쓰기 도구 (Writing Tools)
3.2. 차세대 Siri
3.2.1. 화면 내용 인지3.2.2. 개인적 맥락 이해3.2.3. 풍부해진 언어 이해 역량3.2.4. 앱 내 동작
3.3. 그림 인공지능3.4. 비주얼 인텔리전스3.5. AI 도구 통합
4. 모델 작동
4.1. 온디바이스 처리4.2. Apple Silicon 서버
5. 논란
5.1. 출시 지연 및 허위·과장 광고 논란
6. 기타

1. 개요

파일:AppleIntelligence.jpg
Apple Intelligence에 대해 5분 만에 알아보기

[include(틀:Apple 스타일 인용문, 굵기=bold
,L1=AI for the rest of us.
,L2=우리 모두를 위한 AI.
)]
[include(틀:Apple 스타일 인용문, 굵기=bold
,L1=Built into your iPhone\, iPad\, and Mac to help you write\, express yourself\, and get things done effortlessly.
,L2=당신이 글을 쓰고\, 개성을 표출하고\, 이것저것 척척 처리하는 것을 돕도록\, iPhone\, iPad 및 Mac에 내장.
)]

WWDC24에서 공개된 Apple생성형 인공지능 브랜드.

iOS 18, iPadOS 18, macOS Sequoia, visionOS 2부터 탑재되며, Apple은 개인형 인공지능(Personal AI)이라는 명칭으로 홍보하고 있다.

Apple Intelligence 기능 중, 후술할 화면 내용 인지와 앱 내 동작이 포함된 더 개인화 된 Siri 기능은 2026년으로 출시가 지연되었다. #

2. 지원 기기

Apple Intelligence는 다음 기기와 호환됩니다.
Mac
  • Apple M1 칩 탑재 및 이후 모델(1)
iPad
iPhone
  • A17 Pro 칩 탑재 및 이후 모델(3)
Apple Vision
1. macOS Sequoia 15.1 및 이후 버전이 필요합니다.[1]
2024년 10월 29일부터 미국 영어를 최초 지원한다. 2024년 12월, 영국 영어, 호주 영어, 뉴질랜드 영어, 캐나다 영어, 남아공 영어[2] 2025년 4월 1일, 한국어, 간체 중국어, 인도 영어, 싱가포르 영어, 프랑스어, 독일어, 이탈리아어, 일본어, 브라질 포르투갈어, 스페인어가 추가되었다. 2025년 상반기중에 베트남어를 지원할 것이라고 한다.

3. 기능

3.1. 자연어 처리

Apple Intelligence가 자연어를 이해하며 이를 통해 다음과 같은 기능들을 제공한다.

3.1.1. 알림

3.1.2. 글쓰기 도구 (Writing Tools)

[include(틀:Apple 스타일 인용문
,L1=Write with intelligent new tools. Everywhere words matter.
,L2=단어 하나하나가 중요한 모든 순간\, 글쓰기는 새로운 지능형 도구로.
)]
온라인 게시물, 메일, 메모 등의 작성에 도움을 주는 도구이다. 제공 기능은 아래와 같다.
Keynote, Safari, Mail 등 Apple 제작 앱 뿐만 아니라 서드 파티 앱에서도 사용 가능하다.

128GB 메모리 M3 Max기준, 글 작성 작업에서 Neural Engine의 전력 소모량은 최대 5.9W이다. 메일 요약에는 1~2W 미만을 소모했다.

3.2. 차세대 Siri

[include(틀:Apple 스타일 인용문
,L1=The start of a new era of Siri.
,L2=Siri의 새로운 시대 개막.
)]
완전히 새로운 애니메이션, 아이콘, 효과음 등으로 변경되었다. 특히 Siri가 전체 시스템 사용자 경험과 더 긴밀히 통합되었음을 표현하기 위해, 화면을 감싸는 듯한 애니메이션으로 변경되었다.

별도의 설정 없이, 하단 바를 두 번 탭하여 키보드로 Siri를 이용하는 것도 가능해졌다.[3]

3.2.1. 화면 내용 인지

Apple Intelligence 덕에 사용자가 호출 시 화면에 있는 내용을 이해하고 사용자의 요구에 맞는 적절한 행동을 할 수 있다.

3.2.2. 개인적 맥락 이해

Apple Intelligence의 새로운 엔진을 통해 개인적 맥락 이해 능력을 갖추게 되었다.

사진, 캘린더 속 이벤트, 파일, 메세지와 이메일로 공유된 자료 등 정보에 관한 시멘틱 인덱스를 통해 각종 정보를 찾고, 사용자의 요청사항을 이해하여 그에 맞는 정보를 제공한다.

예를 들어 "엄마가 탄 비행기가 언제 도착해?" 라고 물으면, '엄마' 가 누군지 이해하고, 엄마가 공유했던 비행기 도착 정보를 제공하는 방식이다.

3.2.3. 풍부해진 언어 이해 역량

만약 사용자가 말실수를 해도 즉시 정정하면, 정정한 사항을 받아들여 명령을 수행한다.

예를 들어 “Siri야, 12월 31일에… 어… 아니 1월 1일에 회의… 아니 여행으로 일정 잡아줘”라고 요청할 경우, “1월 1일에 '여행' 일정을 추가하였습니다.”라고 대답한다. 기존 Siri는 12월 31일부터 1월 1일까지 ‘회의여행’으로 일정을 잡거나, 언제 일정을 잡을 것이냐거나 일정 이름을 되물었다.

또, 사용자가 방금 전 요청했던 정보를 까먹지 않고 활용하여 ‘그곳’ 등 추상적인 명령에도 대답이 가능하다.

3.2.4. 앱 내 동작

Siri가 사용자 요청에 따라 여러 앱을 넘나들며 앱 내의 동작을 대신 수행할 수도 있다. 예를 들어 사진 앱에서 특정 이미지 편집, 상세 검색 등이 가능하다. 앱 인텐트 라는 새로운 프레임워크를 사용하며[4], API를 공개했기 때문에 서드파티 앱도 추가할 수 있다.

3.3. 그림 인공지능

[include(틀:Apple 스타일 인용문
,L1=Delightful images created just for you.
,L2=오직 당신만을 위해 생성되는 유쾌한 이미지.
)]
생성형 AI를 이용해 사용자가 원하는 그림을 그려준다.

전용 앱인 Image Playground 가 추가되었으며, 원하는 키워드 등을 입력하면 그림을 그린다. 사용자의 연락처에 저장된 사진을 인식하여 특정한 사람의 초상화를 그리는 기능도 있다. 그림 스타일은 Animation, Illustration, Sketch 총 세가지.

메모Freeform 앱에서는 이미지 마술봉으로 이미 그린 그림이나 키워드 등을 입력하여 원하는 컨텍스트의 이미지를 추가할 수 있다. 주변에 적힌 메모의 키워드를 자동으로 인식하여 맥락에 맞는 그림을 그릴 수도 있다.

메시지, 일기 앱 등 텍스트를 입력할 수 있는 Apple의 앱에서는 자신만의 이모지를 만들 수 있는 'Genmoji' 서비스를 제공한다.

3.4. 비주얼 인텔리전스

비주얼 인텔리전스(구 시각 지능)기능을 통해 사용자 주변의 장소 및 사물에 대해 알아볼 수 있다.

주변 음식점 또는 업체에 대한 세부사항을 찾아보거나, 텍스트를 번역, 요약 또는 소리 내어 읽거나, 식물과 동물을 식별할 수 있다.

카메라 컨트롤이 있는 모델에서는 카메라 컨트롤을 길게 클릭해서 실행할 수 있으며, 카메라 컨트롤이 없는 모델에서는 동작 버튼을 통해 사용할 수 있다. 이 외에도 잠금 화면, 제어 센터를 통해 시각 지능을 사용할 수도 있다.

iOS 26부터는 화면을 캡쳐해서 화면 내의 정보도 식별할 수 있다. 그리고 '시각 지능'에서 '비주얼 인텔리전스'로 명칭이 변경되었다.

3.5. AI 도구 통합

3.5.1. ChatGPT

Apple은 첫 번째 인공지능 도구 통합 계획으로 OpenAI사의 인공지능 서비스 ChatGPT를 채택한다. 출시 당시 기준 GPT-4o 모델로 구동된다.

Apple Intelligence는 자체적인 생성형 인공지능을 탑재하고 있지만, ChatGPT에게 물어보는 편이 낫겠다고 판단하는 경우 사용자의 허락을 구한 후 ChatGPT를 조회하여 답변을 표시한다. 이 허락 요청은 매번 표시되며, 사용자의 허락 없이 질문이 ChatGPT에 넘어가지 않는다.[5]

Mac에서는 프롬프트를 통한 작문과 일러스트 생성 등을 선보였다.

유료 구독 중인 OpenAI 계정을 연동하여 Apple 플랫폼 내에서 유료 서비스를 이용할 수 있다.

기본적으로 OpenAI 계정을 등록하지 않고도 사용할 수 있으며 사용자의 요청은 OpenAI에 저장되거나 학습되지 않는다. 만약 사용자가 Apple Intelligence 설정에서 자신의 OpenAI 계정을 연결시킬 경우, 해당 OpenAI 계정에서 학습 여부를 선택할 수 있다.

4. 모델 작동

파일:Apple Intelligence Korean.jpg
Apple Intelligence 구조도 (한국어)
[Apple Intelligence 구조도 (영어)]
||<tablealign=center><tablewidth=640><tablebordercolor=#333,#D6D6D6><tablebgcolor=#333><nopad> 파일:Apple Intelligence ENG.jpg||
Apple Intelligence 구조도 (영어)

4.1. 온디바이스 처리

Apple A17 Pro, Apple M1 및 이후 칩의 성능과 Neural Engine을 활용하여 다국어 모델 등의 연산을 온디바이스에서 처리한다. 이 경우 어떠한 데이터도 서버로 전송되지 않기 때문에 개인정보를 수집하지 않는다.

특이하게도 M1(11 TOPS) 칩보다 높은 Neural Engine 성능을 갖추고 있는 A16 Bionic(17 TOPS) 칩은 온디바이스 뿐만 아니라 Apple Silicon 서버를 이용한 서비스조차 지원하지 않는데, 이는 탑재기기들의 메모리 용량이 6GB라서 메모리가 부족하기 때문으로 보인다.[6]

4.2. Apple Silicon 서버

작업의 크기를 확인한 다음, 기기 내에서 처리할 수 없을 정도로 크다고 판단한 경우 Apple Silicon으로 구축한 자사 데이터 센터 내 비공개 서버를 활용하여 요청을 처리한다.

서버로 전송된 요청도 개인정보 보호를 보장할 수 있도록, Apple이 개발한 비공개 클라우드 컴퓨팅 (Private Cloud Compute)[7]를 사용한다. Apple의 발표 내용에 따르면, 개인과 연결되지 않은 정보를 서버로 전송하여 Apple 측도 요청자가 누구인지 모르게 요청을 처리하고, Apple Silicon의 보안 기술을 사용하여 외부의 위협으로부터 보안을 유지한다. 서비스 코드도 전부 공개하여 외부 보안 기술자들이 코드를 평가하고 취약점을 잡아내어 보안 위협이 거의 없음을 검증할 수 있다.

2024년 기준 서버 구동에는 M2 ProM2 Ultra 칩을 쓰는 것으로 보인다. 2025년부터 M4 시리즈 칩으로 교체한다는 소식도 있다. 2025년 3월 휴스턴에 관련 인프라 및 데이터센터를 설치한다고 밝혔다.

5. 논란

5.1. 출시 지연 및 허위·과장 광고 논란

Apple Intelligence의 다양한 지능형 기능을 홍보해 놓고 일부 기능[8]의 출시가 지연되거나 오동작 하는 등, Apple이 홍보한 것에 못 미쳐 논란이 되고 있다.

특히 iPhone 16 시리즈는 Apple Intelligence를 위해 설계된 최초의 iPhone 이라는 문구를 사용할 정도로 Apple Intelligence를 전면에 내세웠으나, 실제 출시 시점에는 AI 기능이 탑재되지 않았다. WWDC24 발표와 달리 차세대 Siri 기능은 애니메이션 변경을 제외하면 하나도 실현되지 않았고, 출시일도 미정이다. 제품 핵심 기능으로 내세우며 iPhone 16 시리즈를 판매한 게 2024년인데, 반년이 지난 2025년 3월이 되어서야 2026년 중에나 완성될 기능이라며 말을 바꿨다. 심지어 Apple Intelligence 시연 당시에 보여준 모습조차 실제가 아닌 완전히 꾸며낸 영상이었다고 폭로되었다.#

2025년 5월 Bloomberg Businessweek의 심층 보도#에 따르면, Apple Intelligence의 지연은 Apple 내부의 복잡한 갈등에서 비롯됐다. 팀 쿡은 AI 개발에 적극적이었으나, 소프트웨어 총괄 크레이그 페더리기는 AI를 핵심 역량으로 보지 않았고 연간 iOS 업데이트에만 집중하길 원했다. 특히 2022년 11월 ChatGPT 출시 전까지 Apple은 생성형 AI 개발 계획조차 없었으며, ChatGPT 충격 이후에야 급하게 iOS 18에 AI 기능을 추가하라고 지시했다고 한다. 예산 문제도 심각했는데, 전 CFO 루카 마에스트리가 GPU 구매에 보수적이어서 경쟁사들에게 선점당한 후에는 필요한 하드웨어를 확보할 수 없었다. Bloomberg는 내부 테스트에서 새로운 Siri가 3분의 1 확률로 실패했으며, TV 광고에서 대대적으로 홍보한 기능들이 무기한 연기되자 Apple이 해당 광고를 YouTube와 주요 방송사에서 철회했다고 보도했다. Apple 내부에서도 이를 "위기"로 인식하고 있으며, 2025년 WWDC25에서는 Siri 업그레이드에 대해 거의 언급하지 않을 예정이고, 향후에는 출시 몇 개월 이내의 기능만 발표하는 것으로 방침을 정했다고 한다.

이러한 허위·과장 광고로 인해 미국에서는 집단 소송이 제기되었으며,# 우리나라에서도 공정거래위원회가 허위 광고에 대한 조사에 돌입했다.# 비영어권 국가는 상태가 더 심각한데, 출시 자체는 어떻게든 해결하였으나 Image Playground 같은 일부 기능들은 여전히 출시 미정이다.

이후 WWDC25에서 크레이그 페더리기와 그렉 조스위악이 월 스트리트 저널과의 인터뷰에 나서서 이 문제를 직접 해명했다.# Apple Intelligence 발표 직전까지만 해도 차세대 Siri를 완성할 두단계의 계획이 있었고, 실제로 첫번째 버전을 WWDC24에서 선보인 것이였으나, 질적인 신뢰성 부분에서 개선이 더 필요하다고 느껴 출시를 연기하였다고 한다. 또한 베이퍼웨어가 아닌 실제로 LLM을 기반으로 개발중이었음을 밝히며 시연 자체가 거짓이였다는 폭로를 직접 부인하였다.

6. 기타

iPhone 15(6GB) → iPhone 16(8GB)
iPhone 16 Pro(8GB) → iPhone 17 Pro(12GB)
iPad mini 6(4GB) → iPad mini(A17 Pro 모델)(8GB)
iPad Pro(M4, 9코어 CPU)(8GB) → iPad Pro(M5, 9코어 CPU)(12GB)
M2, M3 MacBook Air(8GB) → M4 MacBook Pro 발표와 함께 16GB로 변경
Mac mini(2023년)(8GB) → Mac mini(2024년)(16GB)
iMac 24(2023년)(8GB) → iMac 24(2024년)(16GB)
MacBook Pro 14(2023년 11월, M3)(8GB) → MacBook Pro 14(2024년, M4)(16GB)
}}}][12]
[1] 한국어는 macOS Sequoia 15.4 및 이후 버전이 필요합니다.[2] 단, 현재 중국 본토유럽연합(macOS 제외)에서는 사용할 수 없다.[3] 차세대 Siri도 이전 Siri와 같이 손쉬운 사용을 통해 키보드로만 요청할 수 있는 옵션을 켜야 키보드로 사용이 가능하다. 그러나, 이전 Siri는 이 설정을 활성화하면 목소리로 Siri를 사용할 수 없었다.[4] 개별적인 앱이 Siri, 단축어 및 여러 시스템 경험 동작을 정의할 수 있게 해준다.[5] 다만 설정에서 허락 요청을 끌 수는 있다.[6] 2025년 기준 Apple Intelligence는 약 7GB의 저장 공간을 차지하는데 이는 첫 출시 때의 4GB보다 1.75배 더 커졌다. 그에 따라 램 사용량도 늘었을 수 있다.[7] Apple Security Research의 Private Cloud Compute 블로그[8] 차세대 Siri의 화면 내용 인지, 개인적 맥락 이해, 앱 내 동작[9] 다른 말로 "최대 입력 글자 수"라고 보면 된다.[10] macOS에 한해서 유럽연합 사용자들도 사용할 수 있었다가 iOS 18.4에서 사용이 가능해졌다.[11] {{{#!wik[12] 윈도우 PC에서는 RAM 용량 16GB가 사실상 표준이고 심지어는 32GB 유저도 엄청나게 늘어나는 추세인데, 맥을 기준으로 여전히 8GB RAM이 기본 옵션에 16GB로 업그레이드 하려면 27만 원을 지불해야 했기에 가성비가 매우 떨어졌다. 그런 판매 정책을 유지할 수 있었던 이유는 맥OS를 공급하는 사업자가 애플 뿐이며 램을 사용자가 교체할 수 없기 때문이지만, 8GB는 애플 기기에서도 극단적으로 성능이 저하되기에 RAM 사용량이 큰 AI를 활용하기 어렵기 때문이다. 따라서 AI 시대에 맞춰 Apple Intelligence를 시장에 빠르게 보급해야 하는 애플로서는 우선 DRAM을 늘릴 수밖에 없었던 것이다.