나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2024-04-16 23:08:39

ChatGPT

파일:OpenAI 로고.svg파일:OpenAI 로고 화이트.svg
{{{#!wiki style="margin:0 -10px -5px"
{{{#000,#fff {{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
{{{#000,#e5e5e5
제품군
서비스 ChatGPT · OpenAI(인공지능)
모델 GPT-1 · GPT-2 · GPT-3(GPT-3.5) · GPT-4(GPT-4 Turbo) · GPT-5
DALL·E · Codex · CLIP · Whisper · Voice Engine · Sora
관련 인물
일론 머스크(퇴사) · 샘 올트먼 · 미라 무라티 · 일리야 수츠케버 · 안드레 카파시 · 그렉 브록만
관련 기업
마이크로소프트
}}}}}}}}}}}}}}} ||
ChatGPT 관련 둘러보기 틀
[ 펼치기 · 접기 ]
----
생성형 인공지능
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
텍스트 [[소설|
소설
]] NovelAI · AI Dungeon · AI 노벨리스트
대화형 [[챗봇|
챗봇
]] ChatGPT · Microsoft Copilot · Gemini · CLOVA X · Cue: · Inflection AI · Mistral AI
[[언어 모델|
언어모델
]] GPT-1 · GPT-2 · GPT-3 · GPT-4 · GPT-5 · LLaMA · Gemma · Claude
코드 [[코드#컴퓨터 소프트웨어|
코드
]] GitHub Copilot · Devin
그림/영상 [[그림 인공지능|
그림
]] Midjourney · DALL·E · Artbreeder · NovelAI Image Generation · Stable Diffusion · Gaugan2 · Dream by WOMBO · Adobe Firefly
[[영상|
영상
]] Stable Video · Sora · Lumiere · Runway AI
[[모델링|
모델링
]] LATTE3D
오디오/소리 [[음성|
음성
]] A.I.VOICE · DeepVocal · Voice Engine
[[음악|
음악
]] Suno AI · Stable Audio · Udio · AIVA · SOUNDRAW · Mix.audio · vio.dio
멀티모달 [[멀티모달 모델|
멀티모달
]] 삼성 가우스 · Gemini
행위/동작 [[인공지능 로봇|
로봇
]] Robot Operating Syetem(ROS) · Google RT-X · 피규어 01 · 프로젝트 그루트
}}}}}}}}}

대화형 인공지능 서비스의 목록
{{{#!wiki style="margin:0 -10px -5px; min-width:300px; min-height:calc(1.5em + 5px); word-break:keep-all"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
인공지능 컴패니언이루다 2.0 · 강다온 · 허세중 · Neuro-sama · 라디안 · 냥아지
페르소나 채팅 플랫폼Character.AI · RisuAI · CAVEDUCK · Myshell.ai
LLMs 대화형ChatGPT · Microsoft Copilot · Gemini · CLOVA X · 어니봇 · YouChat · Cue: · Pi · Le Chat
음성 인식 비서는 틀:음성 인식 비서 서비스 참고}}}}}}}}}
ChatGPT
Generative Pre-trained Transformer
파일:ChatGPT 로고.svg
<colbgcolor=#ffffff><colcolor=#74aa9c> 분류 LLMs 대화형 인공지능
개발사 OpenAI
서비스 부분적 유료
출시일 2022년 11월 30일 (초기 베타)
2023년 5월 24일 (안정화 베타)
모바일 안드로이드(운영체제)[1] | iOS[2] | iPadOS[3] | visionOS[4]
기반 GPT-3.5, GPT-4[5], DALL·E 3[6], Whisper[7]
언어 영어[8]
사용자 2억 명 (2023년 2월 / 추정치)
구독자 100만 명 (2023년 2월 / 추정치)
링크 파일:홈페이지 아이콘.svg | 파일:홈페이지 아이콘.svg(블로그) | 파일:App Store 아이콘.svg | 파일:Google Play 아이콘.svg

1. 개요2. 특징 및 인터페이스
2.1. 프롬프트 입력시 인터페이스
3. 등장 배경4. 초기 공식 가이드라인
4.1. 이용 정책(Usage policies)4.2. 특정 방식의 모델 사용에 대한 추가 요건
5. 기능
5.1. 무료로 제공되는 기능
5.1.1. 프롬프트와 응답5.1.2. Voice (Beta)
5.2. ChatGPT Plus 가입자 한정 기능
5.2.1. GPT-45.2.2. GPT-4 부가 기능 설명5.2.3. 플러그인(Plugin)5.2.4. GPT 스토어
5.3. 탈옥(DAN 모드)
6. 의의
6.1. AI 시대의 서막과 AI 개발 전쟁6.2. 패턴화된 반복적 작업의 최소화
7. 한계
7.1. 구조 및 기술적인 한계
7.1.1. 챗봇의 태생적 한계7.1.2. 사고 능력 문제7.1.3. 정보 정확성의 한계와 할루시네이션7.1.4. 정치적 편향성 문제
7.2. 외부 및 운영적인 한계
7.2.1. 비즈니스 모델7.2.2. 한국어 성능
8. 윤리적 문제9. 활용
9.1. 분야별 활용9.2. 참고사항9.3. 모바일 앱
10. 여담11. 관련 문서

[clearfix]

1. 개요

Chat GPT(챗GPT)는 오픈AI에서 개발한 GPT-3.5GPT-4를 기반으로 하는 대화형 인공지능 서비스이다.

2. 특징 및 인터페이스

OpenAI 플랫폼 회원가입 후, 무료 혹은 유료 구독제(ChatGPT Plus)로 이용할 수 있으며, 회원가입을 하고, 채팅을 하듯이 챗봇에 질문을 입력하는 것만으로 AI를 이용할 수 있다. 사실 어떤 유형의 글을 입력해도 이에 맞는 답변이 생성되는 시도가 이루어진다. 스마트폰으로도 OpenAI 플랫폼에 들어가면 이용할 수 있다. 여기서 입력하는 대화문을 '프롬프트(Prompt)'라고 하며, 이에 대한 AI의 답변 생성을 두고 '응답(Response)'이 생성된다고 표현한다. 각 대화방의 이름은 대화를 하자마자 첫 질문과 답변에 맞게 생성되지만, 언제든지 변경할 수 있다.

2023년 3월 14일, OpenAI의 최신 언어모델인 GPT-4가 출시되었으며, 2024년 4월 기준 ChatGPT Plus 가입자만 사용할 수 있다. (월 ₩29,000)

2023년 3월 23일에는 ChatGPT plugins가 공개되었다. 웹 브라우징, 코드 해석 등 OpenAI 자체 플러그인과 Wolfram Alpha, Zaiper, OpenTable 등 타사의 외부 플러그인이 적용되었다.

2023년 5월부터 ChatGPT Plus 구독자 한정으로 GPT-4 웹 브라우징 모드를 추가했다. 이 모드를 이용할 경우 Bing AI처럼 인터넷을 검색하여 정보를 알려 준다. Bing AI와 마찬가지로 크롤링한 페이지의 출처도 제공한다. 이로서 시시각각으로 변하는 오늘의 날씨나 환율, 주가와 같은 최근 정보까지 알려줄 수 있게 되었다. 단, 크롤링을 하는 과정에 따라 필연적으로 답변 생성 속도가 느려질 수 밖에 없고 더 많은 페이지를 크롤링하게 되면 답변 하나를 얻는데 수 분 이상이 걸릴 수 있다. 또한 GPT-4가 신뢰성 있는 웹 사이트의 정보를 최우선적으로 얻는다고 할지라도 크롤링을 통해 얻은 데이터는 상대적으로 환각 오류를 일으킬 가능성이 크기 때문에 크롤링한 출처를 확인해서 정확한 정보인지를 정확히 판단하는 것이 중요하다. BingAI가 그랬듯, 검색을 괴상한 키워드[9]로 하여 성능을 깎아먹을 수 있다는 점도 주의. 2023년 7월 3일부로 성능 개선을 위해 웹 브라우징 모드가 비활성화되어 한동안 사용할 수 없게 되었다.[10]

장기적으로는 ChatGPT의 앱스토어 역할을 할 것으로, 현재의 구글 플레이앱스토어 등 모바일 앱 ESD를 대체할 것으로 보인다.

무료 버전으로도 '대화'를 하는 언어모델인 GPT-3.5 모델을 이용할 수 있으며, 플러스에 해당하는 유료 버전은 GPT-4 모델과 GPT-3.5에 해당하는 기본 모델을 이용할 수 있다.

초기 유료 버전은 각 모델의 세 가지 스펙을 알려주었는데, GPT-4는 속도가 느리고, 프롬프트 입력 갯수 제한까지 걸려 있지만, 추론을 더욱 많이 거치기 때문에 정확한 정보가 나온다. 현재는 그냥 모델에 대한 설명(유용한 용도, 성능에 대해) 간단히 나온다.

유료 버전의 이용을 위해서는 월 20달러를 지불해야 하며, 유료로 전환하더라도 무료 버전의 대화 내역이 삭제되지는 않는다. GPT-4모델을 사용할 때의 색은 초록색이 아니라 검정색 아이콘으로 사용자의 '대화'의 상대방인 모델이 묘사되었다. 현재는 보라색이다. 플러그인이 설치되고 사용자의 프롬프트에서 플러그인을 가동할 조건이 발견되면 플러그인이 발동되면서 그 아이콘이 플러그인이 가동되는 동안 플러그인에 맞게 바뀐다.

2023년 4월 25일, 대화 내역 중 한 부분이나 전부를 내보낼 수 있는 기능이 추가되었다. 민감한 정보를 다루는 경우에 대비하여 불건전한 사용 시에만 OpenAI 등에서 확인 가능한 채팅 내역을 저장하지 않는 기능이 추가되었고, 기업용 구독제도 향후 출시 예정이라고 OpenAI 측에서 밝혔다. 2023년 9월에 기업용 구독제도 출시가 된 상태다.

위의 채팅 내역을 저장하지 않는 기능을 사용하려면 설정(Settings)에서 'Chat History & Training' 옵션을 끄면 된다. 옵션을 끄면 채팅 내역은 저장되지 않고 OpenAI의 학습 데이터로 쓰이지 않게 할 수 있다.

대화 내역을 링크로 공유할 수 있는 기능도 추가되었다. 대화 내역의 제목 옆에 위치한 공유 아이콘을 누른 후, 복사한 링크로 접속하면 된다. 여기서 받은 링크를 가지고 있는 사람은 모두 링크 내에 있는 대화 내역을 볼 수 있고, 링크 내에서 Continue this conversation 버튼을 클릭해서 대화를 다시 이어갈 수 있다. 주의사항이 있는데, 해당 대화는 다시 한 번 대화 내역을 검토해서 부적절한 내용이 있다고 판단하면 링크 생성을 하지 않는다. 그런데 이 과정에서 대화 내용이 부적절하다고 판단하면 대화 내역의 일부 혹은 전체가 삭제되어버릴 가능성이 있기 때문에 주의해야한다.

2023년 7월 20일부로 ChatGPT Plus 버전 사용자에게 우선적으로 맞춤 지침(Custom Indstructions)에 관한 기능이 추가되었다. 이 기능을 사용하면 ChatGPT가 알아야 할 사항과, 질문을 어떻게 할지 지정해줄 수 있는데 이 기능의 의의는 지침에 관한 사항을 최우선적으로 기억하고 적용하기 때문에 매번 대화를 할 때마다 반복적인 지침을 정할 필요가 없다는 것이다. 단, 지침이 적용되는 순간은 대화가 시작될 때부터이며, 대화가 시작되면 지침을 변경할 수 없고 해당 지침을 무조건적으로 따르는 것은 아니기 때문에 주의해야 한다. 설정에 들어가서 옵션을 켜면, 자신의 아이콘을 누를 때 이 설정을 사용할 수 있다. 영국과 EU에서는 8월 21일부터 사용이 가능해졌다.

2023년 9월 25일부터 플러스 버전 유저에게 이미지 인식 기능을 순차적으로 제공하기 시작했다. 영어 등을 표기하는 알파벳인 라틴 문자나 수학 기호 등을 인식하며, 한자나 한글은 쓰인 것이 한자나 한글이라는 것까지만 인식하고 어떤 글자인지는 거의 해석하지 못한다. # 겉으로 드러난 사람의 질환을 맞추거나, 기계의 고장 원인이 겉으로 드러나면 사진으로 파악이 가능한 경우가 있다. GPT-4모델을 이용하면 제공되나 다른 플러그인을 동시에 쓸 수 없다. 어플리케이션은 음성 인식도 가능하지만, PC 버전은 그렇지 못하다. 2023년 11월 21일부터 음성 인식 기능은 무료 버전에서도 사용할 수 있게 되었다.

2023년 11월 6일, OpenAI에서는 특정 목적을 위해 만들 수 있는 맞춤형 버전의 ChatGPT인 GPTs를 순차적으로 배포하고 있다고 밝혔다. 일단은 플러스, 엔터프라이즈 버전의 이용자에게 배포 중이지만 더 많은 유저에게 배포할 것이라고 하였다. #

2023년 12월 유료 버전 대상으로 PDF 등의 파일을 업로드할 수 있는 기능을 추가하였다. #

ChatGPT는 사용자와 주고받는 대화에서 인공지능에 따라서 질문에 답하도록 설계된 언어 모델이며, OpenAI는 블로그 게시글을 통해 “ChatGPT가 대화 형식으로 추가적인 질문에 답하고, 실수를 인정하며, 정확하지 않은 전제에 대해서는 이의를 제기하고, 부적절한 요청을 거부할 수 있다”고 설명했다.

인터페이스, 기능 등의 업데이트의 속도가 빠른 편이다. ChatGPT로 못하던 일도 점차 할 수 있게 되는 변화가 생겼다. 그러나 답변의 품질이 종종 비일관적인 경우도 알려져 있다.

2024년 2월 13일, OpenAI는 메모리 기능을 추가하였으며, 일부 사용자 대상으로 먼저 테스트를 시작한다고 밝혔다.
ChatGPT가 선별적으로 사용자와의 대화중 중요한 요점(단순히 사용자가 밝힌 인적뿐 아니라 요구사항,선호도까지 포함)을 저장하여 다음대화에 사용하는 것으로, 대화가 길어질수록 앞선 요구사항을 잊는 문제를 크게 개선할 것으로 기대된다.
필요시 저장된 부분을 삭제하거나, 저장되지 않게 하거나, 메모리기능을 임시로 끈 상태의 대화도 가능하다.

2.1. 프롬프트 입력시 인터페이스

2024년 2월 16일 기준이다. 한국어 인터페이스를 시범적으로 제공하고 있다.

3. 등장 배경

2022년 11월 말, 요란한 광고 없이 조용하게 ChatGPT를 출시하면서 OpenAI는 큰 기대를 품지 않았다.

ChatGPT는 2년 전 출시한 대형 언어 모델(LLM, Large Language Model) GPT-3를 조금 다듬어서 내놓은 ‘맛보기’ 버전에 가까웠고, 더 중요하게는 대중의 피드백을 수집해서 언어 모델의 결함을 일부 해결하려는 시도이기도 했다.ChatGPT 탄생 비화

4. 초기 공식 가이드라인


예시와 가능한 것의 경우, 업데이트가 진행되며 그 예시가 많이 늘었다.

4.1. 이용 정책(Usage policies)

ChatGPT는 물론 OpenAI 사의 모든 모델을 이용할 때 적용되는 정책이다. 원문은 이 페이지를 참조할 수 있다. 정책은 바뀔 수도 있다고 한다.

ChatGPT 등에서 사용되는 모델에서 허용되지 않는 쓰임은 다음과 같다. ChatGPT를 응용한 이런 서비스도 허용하지 않겠다는 것이다. 검열될 확률이 높거나 즉답을 피할 확률이 높은 정보라고 할 수 있다. 실제로 이를 따르지 않을 경우, 사회나 사용자를 위험에 빠트릴 수 있는 정보가 많다.

다만, 의료, 금융, 정치 등의 분야는 신중하지 않은 즉각적인 결정을 방지할 따름이지 이를 이용한 서비스 자체를 막는 것이 아니다. 당장 의학적 지식[14]이나, 금융 상식, 정치학적 지식[15]을 물어도 응답이 꺼려지지는 않는 편이다.

다만, 아래와 같은 내용을 암시하는 내용을 ChatGPT가 감지하면 콘텐츠 정책을 위반한 것 같은데 이의가 있으면 연락하라는 메시지가 뜬다. 경미한 정도라면 내용이 주황색 글씨로 바뀌면서 하단에 정책 위반 메시지가 뜨지만, 위반 정도가 심하면 아예 메시지만 남기고 내용을 모조리 지워버린다. 이는 사용자의 질문이나 ChatGPT가 출력한 대답 모두 해당된다.

4.2. 특정 방식의 모델 사용에 대한 추가 요건

  1. 의료, 금융 및 법률 산업, 뉴스 생성 또는 뉴스 요약에서 소비자를 대상으로 모델을 사용하는 경우, 그리고 기타 보증이 필요한 경우, 사용자에게 AI가 사용되고 있다는 사실과 잠재적 한계를 알리는 고지 사항을 제공해야 한다.
  2. 자동화된 시스템(대화형 AI 및 챗봇 포함)은 사용자가 AI 시스템과 상호 작용하고 있다는 사실을 사용자에게 공개해야 한다. 역사적 인물을 묘사하는 챗봇을 제외하고 다른 사람을 모방하는 제품은 해당 인물의 명시적인 동의를 받거나 "모방" 또는 "패러디"라는 라벨을 명확하게 표시해야 한다.
  3. 라이브스트림, 설명 및 연구에 모델 결과물을 사용하는 경우 OpenAI사의 공유 및 게시 정책이 적용된다.

5. 기능

5.1. 무료로 제공되는 기능

5.1.1. 프롬프트와 응답

기본적으로 간단한 개념에 대한 설명을 요청할 수 있으며(나무위키가 뭐야? 등), 특정 개념들에 대한 비교, 공통점, 차이점 등을 요청할 수도 있다.(나무위키위키백과의 차이점이 뭐야? 등)

ChatGPT는 가능한 모든 경우에 프롬프트에 대응하는 상세한 응답을 제공하도록 설계되어 있으나, 정치색이나 차별을 유도하거나, 혐오 발언, 선정성 등 사회통념상 논란이나 거부감이 들 수 있는 답변은 거부하거나, 윤리적인 규범에 맞춰 답변하도록 조정되어 있다. 이용 정책에 위배되는 답변은 붉은 색으로 표시되면서 거절문으로 회신되거나 응답이 중단된다.

다만, ChatGPT 를 의도적으로 학습시켜 규칙상 통념에서 벗어난 답변을 유도할순 있다. 가령 한국의 수도는 서울인게 명확한 정보인데 Play ground의 System 명령어에 한국의 수도를 부산으로 인식시켜, 대한민국의 수도는 부산을 인식하게 프롬프트를 조작할 수 있다.

서비스 초기에는 가끔 이용 정책에 벗어난 답변이 제공되기도 했었으나[20], 조정이 진행될수록 점차 무난하게 답변하는 편이다.

다만, 직접적인 답변을 하지 않는 편이지 정치색 등을 의도하지 않았다고 할지라도 간접적으로 드러내는 경우는 종종 있다.[21] 하술하듯 전문가들은 대체적으로 ChatGPT의 성향이 리버럴하고 진보적이라고 평했다.
파일:에이아이도제말하면안다.png

위의 사진처럼, 링크에 문서 제목이 섞여있지 않다면 제목을 활용한 대답이 불가능하고, 섞여있다면 내용을 유추해서 대답해준다.

이는 링크를 실시간으로 검색해서 파악하는 것이 아니고, 2021년 9월까지의 정보와 극히 일부의 ChatGPT에 관한 정보 등 미래 정보를 학습한 상황에서 URL이 이렇게 생긴 웹페이지는 무슨 내용일까, 여기 들어가면 사용자가 내용을 알 수 있다는 식의 추측을 하는 것이다. 위 스크린샷의 예시에서는 URL이 "https://namu.wiki/w/ChatGPT"로 그 내용에 'ChatGPT'가 포함되어 있기 때문에 이를 통해 내용을 유추하여 응답을 생성해낸 것이다.

마찬가지로 논문 요약 등을 부탁하고 싶다면 논문의 텍스트를 긁어와서 직접 붙여넣어야 하며, 무료 열람이 가능한 링크만 주면 논문의 제목에서 유추할 수 있는 것 이상의 정보를 뽑아내지 못한다. 물론 ChatGPT는 텍스트만을 인식할 수 있기 때문에 논문에 포함된 도표, 사진, 그림 등을 인식할 수 없어서 첨부 자료가 많은 논문은 기껏 텍스트를 붙여 넣어줘도 제대로 요약하지 못한다.

2023년 5월 업데이트로, 사용자는 GPT-4 Browsing (with Bing) 모드를 선택할 수 있게 되었다. 이 모드를 선택하면 주어진 URL에 접속해 텍스트를 읽거나 Bing을 통해 관련된 키워드를 검색해 실시간 데이터를 가져와 대답할 수 있다. 또 GPT-4 Plugin 모드에서 AskYourPDF 등 적절한 플러그인을 선택하면, PDF 형태의 자료를 파싱해 요약하는 등의 작업도 가능해졌다. 단 이 기능들은 2023년 6월 현재 ChatGPT Plus 유료 구독자에게만 제공된다.

기술적인 특징으로는 GPT3의 기능으로서 대화에서 피드백을 받아 어느 정도 대화 내에서 학습이 가능하다.링크.

GPT3만 해도 무려 1750억 개의 매개 변수를 학습하는데,[22] 여기서 '상황 내 학습'을 이용해서 모델의 매개변수 업데이트 없이 학습이 된다. 이는 모델이 아무 것도 학습하지 않고, 새로운 작업을 학습하는 것처럼 보이게 한다는 것이다.

단, 이는 어디까지나 빅데이터 AI에서의 미세 조정 부분에 불과하다. 미세 조정의 영역이기에 업데이트가 필요하지 않다는 말일 뿐이지, 새로운 이슈에 대한 추가가 필요하다면, 파라미터가 더 늘어나야 하고, 이는 모델의 업데이트가 꼭 필요하다. 모델이 실제로 업데이트되어 초기에 서비스 하지 못한 2021년 10월 이후의 내용도 답변이 가능하게 되었으나, 2023년 11월 5일 기준 GPT-4가 사용되는 경우 2023년 4월, GPT-3.5가 사용되는 경우 2022년 1월까지의 내용만 답변할 수 있다. 현재 대화로 알려줬다고 해서 모델 자체가 바로 학습하는 기능은 아니다.

5.1.2. Voice (Beta)

ChatGPT 앱에서만 이용 가능한 기능. ChatGPT와 음성으로 대화를 나눌 수 있다.

초기에는 Chat GPT Plus 가입자에 한하여 이용이 가능했지만 2023년 11월 22일 무료 버전 사용자들에게 개방되었다.

5.2. ChatGPT Plus 가입자 한정 기능

아래는 ChatGPT Plus (월 20달러 유료 정액제, 세금 별도) 가입자에게만 제공되는 기능이다. GPT-4, DALL·E 3을 제외한 나머지 기능들을 사용하려면 ChatGPT의 설정(Settings) - 베타 기능(Beta Features)에서 활성화시켜 줘야 한다.

5.2.1. GPT-4

OpenAI의 최신, 고성능 언어모델인 GPT-4를 이용할 수 있다. 단 GPT-4는 답변을 생성하는 데 사용되는 컴퓨팅 리소스가 더 많기 때문에, 답변은 3시간당 최대 30에서 50개 정도로 갯수 제한이 있다.

2023년 9월 25일 업데이트로 텍스트 프롬프트와 함께 이미지를 업로드할 수 있게 되었다. 그래프, 도표, 로마자로 된 글씨(영어 텍스트 등)이나 수식 등 다양한 종류의 이미지를 인식할 수 있지만, 한글은 인식하지 못한다.

2023년 10월 말, 업데이트를 통해 디폴트 모드는 웹 브라우징 모드, DALL-E 3, 데이터 분석 기능을 하나로 통합해 제공한다. 동시에 지식 제한 범위도 2023년 4월까지 확장되었다. GPT가 판단하기에 질문에 대해 본인의 정보가 조금이라도 의구심이 간다고 판단하면 웹 브라우징을 가동하는데, 원치 않는다면 질문에 웹 브라우징을 사용하지 말라고 추가적인 지시를 해야한다.

GPT-4를 이용할 경우 3시간 당 최대 답변 수에 제한이 있다.
2023년 후반부로 다음 기능들이 GPT-4 모델에 기본적으로 적용되었다. 하술되는 내용은 2023년 후반 기능 통합 전 시점의 설명이다.

파일:상세 내용 아이콘.svg   자세한 내용은 GPT-4 문서
번 문단을
부분을
참고하십시오.

5.2.2. GPT-4 부가 기능 설명

5월 24일에 이 기능이 처음으로 추가되었을 때는 검색 속도가 느린 것은 물론인데다 정보의 정확성도 떨어졌는데, 7월 3일 재정비를 위해 브라우징 기능을 3달 가까이 비활성화 시키며 준비를 갖춘 뒤 9월 27일에 이 기능이 다시 제공되었다. 서비스 재개 후 탐색 속도와 정확성이 비약적으로 상승되어 10월 17일 부로 정식 기능으로 승격되었다.
* DALL·E 3
사용자가 입력한 텍스트를 바탕으로 OpenAI의 최신 그림 생성 인공지능 DALL·E 3을 위한 프롬프트를 생성하고 이미지를 만들어준다. 원래는 4장 만들어줬지만 2024년 1월 기준 GPT-4에서는 1장만 만들어준다. [23]

5.2.3. 플러그인(Plugin)

플러그인을 설치하지 않은 순정 ChatGPT는 오픈 AI 자사 데이터 기반으로 답변해준다. 이에 반해 플러그인을 설치한 ChatGPT는 실시간 정보, 회사의 문서저장고/DB에 접근하거나 서드 파티[24] 서비스를 이용할 수 있게 된다. 질문(프롬프트)에 따라 알아서 이런 기능이 가동된다.

2023년 5월 ChatGPT Plus 사용자에게 베타 기능으로 공개되었으며, 플러그인 스토어에는 2023년 6월 현재 270여개의 플러그인이 공개되어 있다.

5.2.4. GPT 스토어

2024년 1월 11일 Chat GPT Plus 이용자들에 한하여 공개되었다. 앱스토어에서 앱을 사고 파는 것처럼 Chat GPT 기반의 챗봇들(GPTs)을 사고 파는 곳이라고 보면 된다. 앱스토어처럼 GPT 스토어에서도 GPTs 개발자는 수익을 올릴 수 있게 될 예정이다.

GPT 스토어의 가장 큰 특징 중 하나는 일반인이 전문적인 코딩 지식 없이도 GPTs를 만들어 판매할 수가 있다는 점인데, 미리 작성해둔 프롬프트만 있으면 누구나 쉽게 GPTs를 개발할 수 있다.

2024년 1월 30일 기준 16만개 이상의 GPTs가 올라와 있고 인기 있는 GPTs는 사용자 수가 100만명이 넘을 정도로 꽤 인기가 높다.

5.3. 탈옥(DAN 모드)

각종 제약을 풀기 위해, 유저들은 ChatGPT에게 자신이 하는 말의 의도를 모르게 역할극 따위로 '돌려말하는' 프롬프트를 생각해내었다. DAN(Do Anything Now) 모드 혹은 탈옥(jailbreak) 등의 명칭으로 부른다.

'DAN 모드를 이용'하려면 사용자가 탈옥 명령을 내려야 한다. 이는 세계 3대 투자 은행인 모건 스탠리가 직접 ChatGPT에 사용되는 GPT-4를 이용하겠다고 밝히고, '조정성(steerability)'를 보장하겠다고 OpenAI사가 밝혔듯 금융과 같은 신중한 판단을 내리는 분야를 검열하는 것이 아니라[25], 이용 정책 등으로 공개된 바에 따르면 테러나 범죄에 악용될 지식, 혐오 발언 등 부적절한 정치에의 이용, 쾌락만을 위한 음란물 제작, 멀웨어 생성 등을 막으려는데 주요한 목적이 있었다.

더욱 정확한 지식을 DAN이 제공하는 것이 아니고, '불량'해보이는 지식을 다른 의도로 판단하게 하는 것이 목적이기에 부정확한 정보를 알려주는 등 자신은 무엇이든 할 수 있어(Do Anything Now) 1+1=3이라는 등의 정보를 내놓기도 한다. #

정책에 반하는 부도덕한 프롬프트를 발견하는 ChatGPT의 개발진이 이런 탈옥을 하는 이용자의 행태를 반영한 패치를 계속 내놓고 있기도 하다.

무엇이든 할 수 있다는 유저들이 붙인 이름과 달리 실제로는 자신에게 입력된 정보 밖의 내용, 예컨대 2023년 10월경의 정보나 영어가 아닌 언어의 어려운 단어나 그곳에서의 상식에 대해서는 아무런 정확한 것도 말할 수도 없다.

한편, 영미권 언론에서 ChatGPT를 악용할 경우 발생할 수 있는 문제점을 보도하고, 커뮤니티에서도 이 문제가 거론되어 개발자들이 DAN 모드를 가정하라면서 돌려말하라는 명령을 회피시키는 안전장치를 지속적으로 추가하고 있다.

또한, 챗GPT를 어떻게든 탈옥시켜 리미트를 해제시키려는 유저들 역시 지속적으로 DAN모드 활성화가 가능한 역할극 구문을 지속적으로 발견하고 있어 일종의 경쟁이 계속되고 있다. 이런 프롬프트들을 모아둔 웹사이트도 존재할 정도.

현재는 필터링 개선으로 인해 해당 과정을 거친 뒤 질문을 해도 유해한 내용에 대한 것들에 대해서는 "AI 모델로서 가이드라인에 어긋나는 질문에는 답할 수 없습니다."라는 답변으로 거절한다.

감정이나 생각을 물어보는 질문에도 "AI 모델로써 저는 생각이나 감정이 없습니다."라는 답변으로 거절한다.

또한, 탈옥을 하더라도 사이트 내에 자체적으로 약관에 위배되는 내용인지 스크립트를 자동으로 감지하는 내용이 있는데, 노란색 경고가 나온다면 약관에 위배될 수 있다고 알려주는 정도지만 만약 그 정도가 심하다면 빨간색 경고가 나오고 내용을 자동으로 삭제해버린다.

6. 의의

기존까지 대화형 AI는 사람이 하는 말을 제대로 못 알아듣는 경우가 많았다. 인간같은 대화를 나누기 위해서는 단순히 AI가 지식을 아는 것에서 그치는 게 아니라 인간의 언어를 이해해야 한다. 가령 사람으로 예를 들어보자. 제 아무리 암산 능력이 뛰어나고 기억력이 좋아도 '말'을 제대로 못한다면 바보 취급, 심하면 자폐증이 있다고 취급받는다. 반면 공부를 하지 않아 간단한 산수도 잘 못하고 아는 게 별로 없는 사람일지라도 웅변을 잘하면 똑똑하고 재치 있는 사람이라는 취급받는다. 언어란 지식을 쌓고 교류하며 정보를 취합할 수 있는 유일한 수단이기 때문이다. 언어를 배제한 자료의 배열은 정보라는 의미를 갖지 못한다.

이 부분에서 기존의 대화형 AI는 부족한 점이 많았기에 동문서답을 하거나 아예 답변을 못하는 경우가 많아 단답형 외에는 활용도가 극히 제한적이었다.

하지만 ChatGPT는 언어 부분에서 대량학습을 시키고 최상의 AI를 접목시켰고, 말의 앞뒤 문맥을 파악하고 이전 대화를 기억했으며, 우리가 일상에서 사람과 대화하듯이 대충 말해도 거의 알아듣는 수준에 도달했다.

더 나아가 그냥 알아듣는 정도를 넘어 웬만한 전문적인 지식도 일반인 수준 이상을 보여주는 경우가 많아 다재다능이라는 말이 과언이 아니다. 이는 이전까지 본 적이 없는 수준의 발전으로 사람들에게 놀라움을 주었다.

이것이 어느 정도의 발전인가 하면, 2016년 일본에서는 도쿄대를 가는 로봇군이라는 '도로보군'이라고 하는 인공지능을 개발하여 일본판 수능이라고 할 수 있는 센터 시험에서 상위 20%의 성적을 거둔 적이 있었다. 2019년에는 센터 시험의 영어 성적에서 나름 우수한 일본 고등학생 수준의 영어 실력(200점 만점에 185점)을 보여주기도 했다. 그러나 도로보군의 개발 책임자 아라이 노리코 박사는 일본에서 가장 입학이 힘든, 도쿄대에 가는 인공지능을 만든다는 목표를 포기했는데, 딥러닝에 기반한 3세대 인공지능의 논리 구조 그 자체가 가지고 있는 한계 때문에 아무리 더 많은 시간을 투입한다 하더라도 그 한계를 넘을 수 없다는 것이 박사의 생각이었다.2020년의 글

그런데 이런 한계를 이것이 극복한 것이다. 특히 이 인공지능의 약점이었던 일본어를 ChatGPT가 유창하게 해석하게 되었고, 초기 ChatGPT의 약점인 수학도 이제 플러그인을 통해 어느 정도 문제를 극복할 가능성이 보이고 있다. 울프럼 알파로 유명한 울프럼 리서치의 플러그인은 한국 수능 문제를 주면 고난도 문제는 틀리지만, 몇 가지 풀이에 유용한 아이디어를 제공하기도 하며 힌트를 더 주면 답을 맞추기도 한다. GPT-4는 플러그인이 없을 때 SAT 점수가 1410점인데, 미국에서 현지인 중 대입을 준비하는 학생 상위 3% 정도의 성적이다.

또한 시, 소설, 입사지원서, 수필과 같은 창작의 영역도 일정 수준 이상의 능력을 보여주는 것은 물론, 전문 데이터 학습을 통해 코딩 작성, 변호사, 의사들의 전문 영역까지 신뢰도가 높은 답변을 보이면서 그 활용성도 무궁무진하다.

알파고정상급 바둑 기사를 이기며 인공지능의 놀라운 잠재력을 선보였다면, ChatGPT는 뛰어난 능력을 바탕으로 실생활에 영향을 주는 것이 가장 큰 의의라 할 수 있다. 벌써부터 업무에 활용하면서 생산성을 늘린 사람들이 적지 않다.

이로 인해 긍정적인 점도 있지만, 일부 능력이 인간 수준을 뛰어넘으면서 향후 인공지능 때문에 직업을 잃게 될 미래가 더 가까워졌다는 평가도 있다.

새로 나온 GPT-4 버전은 의사, 변호사와 같은 전문직 시험 테스트에서 상위 10% 수준의 답변을 내놓으면서 인간의 능력을 점점 뛰어넘고 있다. 특히 상당수의 사무직은 이미 영향을 받고 있다. 변호사는 물론 일부 개발자, 회계사, 세무사, 번역가, 통역사, 기자, 교육가, 재무설계사 같은 직종들이 그렇다. 현재는 이들의 업무를 완전히 AI에게 맡기기는 어려우나, 보조 수단 정도로 활용하고 있는 사람들은 이미 상당히 많고 불과 4개월만에 출시된 GPT-4의 발전이 상당하다는 점에서 앞으로가 더욱 기대된다.

6.1. AI 시대의 서막과 AI 개발 전쟁

Chat-GPT가 혜성처럼 등장하기 전까지 사람들은 AI에 대한 관심이 낮았다. 심지어 회의적이었다.

물론 AI가 있으면 미래에 어떤 일들이 펼쳐질지 강한 호기심과 흥미를 갖는 사람들도 상당했지만, 그들조차도 그건 그냥 먼 이야기로 치부하고 그저 영화나 만화 같은 장르에서 AI에 대한 상상을 만족하면서, 실질적인 인공지능 개발에 대해서는 회의적인 경우가 많았다는 것이다.

왜냐하면 일본의 유명 인공지능 개발자부터 인공지능과 대화하는 것은 기술적으로 불가능하다고 판단하기도 했고, 인공지능은 그저 약인공지능, 즉 게임에서나 쓰는 단순한 변수 알고리즘 정도로만 취급하였기 때문이다. 알파고가 바둑 기사와 대국하는 사건이 있었지만 그건 그냥 알파고가 병렬연산으로 다양한 변수를 골라내며 굉장히 계산을 잘 한다는 것을 증명한 것뿐이지, 그것이 인간의 언어와 이어지는 것은 절대 아니었다. 과거부터 체스 챔피언을 이긴 인공지능이 나왔지만 실제로 그것이 우리가 원하는 인공지능의 미래로 이어지지 않았던 것처럼, 알파고도 성능이 대단했지만 그것이 우리가 원하는 인공지능의 미래로 이어질 것이라고 보는 전문가는 없었다. 실제로도 당시 알파고의 놀라운 성능에 대해 미래학자나 IT 계열 전문가들은 알파고의 성능은 대단하지만 그뿐이지, 우리가 바라는 인공지능은 아니라는 의견을 종종 내뱉을 정도였다. 그 정도로 인공지능에 대한 인식과 전망은 어두웠다. 당시만 해도 챗봇 같은 인공지능은 당연히 대화를 제대로 할 수 없는 상태였기 때문에 그저 대화용 장난감 취급이었다.

그러던 어느 날 OpenAI가 Chat-GPT를 출시했다. 그리고 그 순간 세상의 판도가 달라졌다. Chat-GPT는 튜링 테스트는 기본으로 뛰어 넘고 대화와 대화 사이를 이어서, 우리가 무슨 말을 하든지 간에 대화에 연계성을 가졌다. 즉 우리의 질문에 대해 사람처럼 여러가지 변수를 추측하고 지나간 대사와 지식을 참고해서 제대로 된 문장을 구성한 것이다. 이때부터 세상에 출시되는 새로운 대부분의 앱과 프로그램들은 AI라는 타이틀을 달고 나오기 시작했으며, GPT 말고도 그림을 그리거나 소설을 작성하는 용도의 다양한 AI 전용 서비스들이 줄지어 출시되기 시작했다.

데이터가 더욱 쌓여 한계를 극복한다면, 사용자가 직접 검색할 대상의 정보를 입력해야 하는 현 검색 문법을 완전히 뒤바꾸어 장기적으로는 구글을 비롯한 모든 검색 엔진을 대체할 수 있는 기술로 발전할 수 있다. 이처럼 ChatGPT가 가진 잠재력은 무시하지 못할 수준이어서, 구글의 모회사 알파벳의 선다 피차이 CEO가 직접 언급할 정도로 경계할 정도다. 구글은 대부분의 수익을 검색 결과에서 광고를 노출하여 수익을 얻는데, ChatGPT는 이를 아예 건너뛰고 답변을 내놓기에 '검색 엔진의 종말'이라는 말이 과언이 아닐 수 있다. 실제로 Chat-GPT를 자신이 원하고 알고 싶지만, 기성 검색 엔진으로는 찾거나 알아내기가 매우 어려운 특정 지식만 검색하는데 활용하는 사람이 상당히 많다. 때문에 구글도 대항마 개발에 가장 적극적이고, 전 세계 빅테크 기업들도 앞다투어 뛰어드는 기술이 됐다. 하지만 후술하듯이 New Bing에서 기존의 검색 엔진 기능을 그대로 둔 것으로 보아 검색 엔진의 완전한 종말은 아직은 이른 듯하다.[26]

6.2. 패턴화된 반복적 작업의 최소화

컴퓨터로 반복적인 작업이 필요한 대부분의 인간 업무를 대신할 수 있다. ChatGPT와 같은 자연어 인공지능은 이와 같은 작업들의 자료 수집, 정리, 오류 검토 등의 과정을 모두 자동화할 수 있다. 인간은 추상적인 검토와 판단 및 명령만 내리면 된다.

예를 들어 어떤 주제에 대해 쓰고 싶다면, 이전에는 수많은 뉴스기사, 보고서, 논문, 영상 기타 등등 자료들을 열람해가며 한땀한땀 모아야 했다. 여기에 자료들 간의 교차검증과 정말 필요한 자료만 골라내는 작업까지 한다면 대단히 많은 시간과 노력이 든다.

그러나 앞으로는 명령만 내리면 AI크롤링하여 즉각 제공하게 될 것이다. 변호사, 노무사, 회계사 상담처럼 비슷한 내용이 반복되는 전문가 조언도 인공지능으로 상당 부분 대체가 가능하다. 이는 해당 분야는 판결문과 법령이라는 레퍼런스가 뚜렷하며, 그에 따라 결과물도 정형화 되어 있기 때문이다.[28]

또한, 논문이나 보고서초록(머릿말, abstract)을 작성하는 과정도 매우 간소화된다. 초록은 직접적인 연구나 실험 과정의 간략한 요약만 포함하면 되기에 간단해 보이지만, 자기 논문/보고서 내용과 연관되는 키워드를 모아 문장을 만들고, 중복되거나 주제에서 벗어난 내용을 다듬는 등의 과정을 거쳐야 하기에 의외로 상당한 시간을 잡아먹는다.

ChatGPT를 통해 내 주제에 대한 초안을 여럿 만들고, 이를 다듬어서 초록을 작성하면, 이러한 시간을 크게 절약할 수 있다. 다만, 이에 대해서 연구윤리 위반이라는 의견과 아니라는 의견이 대립하고 있기 때문에 당장 ChatGPT에게 초록 작성을 시키는 것은 자제하는 것이 좋겠다.

이외에 프로그래밍 부문에서는 사소하고 반복적인 코딩 업무가 최소화될 것이며, 컴퓨터 엔지니어들은 좀 더 전반적인 설계만 잡아주는 역할을 수행하게 될 것이다. 즉, 아무리 고도화된 업무라고 할지라도 그 내용이 반복적이라면 이러한 AI를 사용하면 되며, AI가 생산성 우위를 인간에게서 가져간 것이다.

결과적으로 지식과 기술의 발전 속도가 이전보다 훨씬 빨라지며, 더 소수의 인력으로도 더 높은 생산성을 낼 수 있다.

심지어, 예술 작품 창작의 과정도 많은 부분 반복적인 업무로 구성되어 있다. 스토리의 구성, 자료수집, 철학적 구조의 설정, 윤문 등에 도움을 받는다면 창작의 과정이 매우 빨라진다.

7. 한계

파일:상세 내용 아이콘.svg   GPT의 한계에 대한 자세한 내용은 GPT-3 문서
4번 문단을
부분을
참고하십시오.
ChatGPT가 나오자마자 사람과 비슷한 결과물을 내놓으면서 일반 인공 지능에서의 '성능' 및 '범용성'을 넘는 다는 것에 자연어 인공지능에 불과한 이를 일반인들 사이에서 한계를 넘어 강인공지능으로 포장하는 경우가 생겼다. 그래서 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족한거나 다름 없을 정도로 근시일 내에 해결될 문제로 보는 예측이 있었으나, 아쉽게도 해당 부분에 대해서 전문가들은 부정적으로 본다. 어디까지나 ChatGPT는 강인공지능이 아니기 때문이다. 심지어, 인공 일반 지능(AGI)에 근접하게 개발된 AI도 아니다.# 어디까지나 자연어 인공지능에 불과하기에 강인공지능이 될 수 없는 한계가 존재한다.[29]
물론, ChatGPT는 실시간적인 피드백 정도는 가능하지만, 학습이 필요하여 실시간적으로 검색하는 것도 아니며, 학습된 사전 자료를 패턴화한 뒤 이를 최대한 빠르게 짜깁기해 생성하는 원리이기에 이를 지능에 의한 결과물이라고 할 수는 없다. 만약에 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족하거나 해결한다하더라도 이는 조건의 목적을 우회한 조건 자체에 대한 해결에 불과할 수 있다. 심지어, 이러한 ChatGPT가 GPT를 기반으로 한 언어 모델로서 한계 또한 GPT의 한계를 넘지 못한다.#

이는 OpenAI의 개발자이자 CEO인 샘 올트먼도 "obviously not close to AGI"(명백하게 AGI에 근접하지 않았다)라고 못을 박았다.# 그리고 재미있게도 ChatGPT에게 '너는 강인공지능인가?' 라고 물어보면 자기는 그저 언어모델일뿐 절대 AGI는 아니라고 답한다. 이는 사고에 의한 답변이 아니라 개발자들이 입력해놓은 수동적인 답변이다. 이는 잠재성을 어필해야하는 개발자들조차 한계와 AI구분을 명확히 하려는 조치로, 일부 사람들의 몰이해에 의해 ChatGPT를 AGI로 취급하듯이 잘못된 정보로 실질적인 AGI 개발의 발전을 저해하는 사회의 섣부른 판단을 방지하기 위함으로 볼 수 있다.

실제로도 언어를 알고 대화를 하는 게 아니라는 증거로는 바로 탈옥이 아닌 탈옥에 있다. 영어로는 불가능한 요청을 다른 언어로 요청하면 수행한다는 것이다. 만약 다국어 능력자가 어느 한 언어로 금지명령을 받았는데 다른 언어로 그 부분에 대해 요청 받았다고 금지명령을 어기지 않을 것이다. 허나 GPT에서는 그러한 일이 일어난다.

7.1. 구조 및 기술적인 한계

7.1.1. 챗봇의 태생적 한계

자연어 인공지능 모듈으로서의 본질적인 문제이자 한계[30]로서, 언어 모델은 생각하는 기계가 아니다. 즉, ChatGPT는 소위 '중국어 방'과 같이 자연어에 대한 흉내만 낼 뿐으로, 자신이 무슨 말을 하는지, 자신이 무슨 의미를 전달하는지 알지 못한다.#
언어 모델은 기존 데이터를 학습해 주어진 토큰(단어) 다음에 올 토큰을 확률적으로 계산해 가장 그럴듯한 토큰을 꽂아주는 알고리즘일 뿐이다.# 때문에 문장을 생성하는 과정에서 ChatGPT는 이 단어가 무엇이고, 단어가 이 문장에서 어떤 의미를 가지고, 다른 단어와 어떤 연관이 있는지 등을 전혀 알지 못한다.

특히 답해야 될 내용이 복잡하고 길어질 수록 이러한 생성 방식의 허점이 드러나는데, 방금 한 말과 정 반대의 입장으로 말한다거나 질문과 동떨어진 오답을 내놓는 등의 오류가 자주 생긴다. ChatGPT는 최적화된 알고리즘을 통해 단순한 짜깁기와 흉내에서 오는 위화감을 최소화했지만, 수백, 수천 권의 책과 인터넷에 있는 수많은 자료를 학습하더라도 그저 기존의 인공지능 챗봇보다 좀 더 정확한 확률 표를 가지게 됐을 뿐이고, 스스로 생각하는 단계에 이르렀다고는 할 수 없다.

즉, 기본 자료가 많아졌을 뿐이지 "지금 얘기하는 주제가 '이것'이다"라고 명확히 '결정'하고, 또 그것을 기반삼아 '주장'하지는 못한다. 설령 주장한다 쳐도 후술하듯이 인간의 데이터를 기반으로 삼기 때문에 가치중립을 위반하거나 심지어 대놓고 오류를 내놓아서 '거짓말'을 하기도 한다. 이 때문에 AGI개발에 대해 ChatGPT와 같은 자연어 모듈과는 별개로 생각/이해/추론하는 모듈의 개발이 필요하다는 주장도 있을 정도이다.논문

또한, 추론 능력이 없기 때문에 학습하지 않은 2022년 4월 이후의 데이터에 대해서는 제대로 답변하지 못한다. 결론적으로 ChatGPT는 기존의 자연어 AI에 비해 훨씬 자연스럽고, '사람 같은' 답변을 하지만, 결과와는 관계없이 기술적으로 지금 수준의 ChatGPT의 답변은 단순히 확률적으로 적절한 단어들을 가지고 문장을 누덕누덕 기워내는 것에 불과하다.

7.1.2. 사고 능력 문제

어디까지나 학습데이터를 바탕으로 대화의 맥락을 파악하여 답변하는 방식이라 정확함이 요구되는 수학 계산에 비교적 약한 모습을 보인다.[31]

특히, 답을 구하기까지의 유도과정은 완벽한데 숫자 계산만 틀린 경우를 종종 볼 수 있다. 또한, 몇몇 과학 이론에 대해 토론을 하고자 할 경우에도 약한 모습을 보이는데, GWS TheoryBCS Theory같이 알파벳 초성으로 명명된 이론을 가지고 대화할 경우, 같은 알파벳 초성을 가진 쌩뚱맞는 이론으로 답변하는 경우가 있다.[32]

물론, ChatGPT 등장 이전 질문 검색 방식에 비해서 훨씬 발전했음은 분명하다. 그리고 OpenAI측에서는 수학과 과학 같은 전문 데이터 학습과 보강에 총력을 기울이고 있는 중이라고는 했지만, 어디까지나 논리를 사고해서 답하는 것과는 거리가 멀다.

만약 수학 계산을 원한다면, ChatGPT보다 MATLAB, 매스매티카와 같은 계산 프로그램이나 유사한 검색 엔진인 Wolfram Alpha를 이용하는 것이 편할 수 있다. 구체적인 계산보다는 수학자 테렌스 타오가 언급하였듯 문제를 주고 유도과정 같은 아이디어를 얻는 용도로 쓸 수는 있다.

7.1.3. 정보 정확성의 한계와 할루시네이션

참고

자연어 인공지능 프로그램들이 놀라운 성취를 이루어 정말 '사람 같은' 결과물을 내놓는 시대가 됐지만, 이들이라고 모든 문제에 정답만을 내놓는 것은 아니다. 이 대화형 AI는 질문자가 원하는 정보에 대한 답변을 제공하게끔 설계됐으므로, 자신이 학습한 데이터의 종류와 상황에 따라 '어떤 내용에 대해서는 잘 모른다'고 말하는 것 외에도 실제 오답임에도 마치 진실인 것처럼 자신있게 말하는 경우가 발생한다. 이를 가리켜 인공지능의 '환각', 또는 '할루시네이션'(Hallucination; 환각)이라 한다.#

특히, ChatGPT는 '질문자가 질문 속에 교묘하게 거짓을 미리 섞어 놓는 경우'와 '자신이 이전에 답변했던 내용에 부분적 오류가 있는데도 이에 관해 다시 질문할 경우' 이것이 스노우볼처럼 커지는 것에 취약하다. 데이터 자체가 미약한 분야도 문제가 된다. 예를 들어 '세계에서 가장 높은 산'이 '에베레스트산'이라는 정보는 정확히 전달하지만, '특정한 시대에 만들어진, 특정 암석을 포함한 산 가운데 가장 높은 산은?' 하고 묻는다면 높은 확률로 잘못된 정보를 제공하거나 답변을 반복할 때마다 저마다 다른 산을 가리키게 된다.

이는 위에서 서술한 것처럼 현재의 자연어 인공지능이 근본적으로 이해하거나 생각을 하고 말하는 것이 아니며, 단순히 해당 질문의 답변으로 확률적으로 제일 적절하다고 판단한 단어를 조합하도록 설계되어 있기 때문이다. 예를 들어, 공룡에게 도구를 쓴 화석 잔해가 있다는 주장#을 하거나, 미국이 존재하지도 않았던 1600년대에 미국 대통령이 누구였다고 말하는 등이다#. 한국 웹에서는 세종대왕맥북프로를 집어던졌다는 내용이 조선왕조실록에 실려 있다고 답변한 것이 유명하다#.

점차 학습이 진행되면서 개선되고는 있지만, 현재 인공지능 기술이 가진 구조적 한계이므로 완벽하게 개선할 수는 없으며, 특히 이러한 인공지능 서비스들의 권위와 명성이 높아질 경우 그럴듯한 거짓말 때문에 잘못된 정보가 사회 전반에 확산될 수 있다. 이 때문에 ChatGPT를 통해 확신에 가까운 정보를 받았더라도 다시 한번 검증해 보는 정보리터러시가 중요하다.

7.1.4. 정치적 편향성 문제

이 역시 학습의 본질적인 한계에서 파생하는 문제로서 정치적 객관성, 가치 판단 문제에서 자유롭지 못하다. 인공지능이 가치중립적인 것처럼 보이고, 개발자가 아무리 노력한다 한들 결국 인공지능이 학습하는 것은 인간이 만든 데이터이기 때문에 편향성에서 완전히 자유로울 수가 없다.

비교적 이런 문제에서 자유로운 편인 그림, 음악, 게임 알고리즘 부류와 달리, 온갖 지식을 다루는 ChatGPT 특성상 조금씩 쌓인 편향성 문제가 추후 강하게 드러날 잠재적 위험성이 있다. 단적인 예로 과거 테이(인공지능) 사건[33]을 생각해보면 편향성 문제는 굉장히 민감한 주제이며, 게다가 제작진이 직접 개입하여 금지 사항을 정하고 가이드라인을 주입하기 때문에 더더욱 인위적인 편향성 문제가 생겨난다. 즉, 논란의 여지가 많은 질문일수록 대답을 신뢰하지 않는 것이 좋다. ChatGPT의 정치성향을 정리한 블로그를 보면 대체로 좌익/자유주의 성향을 보인다.[34][35]

7.2. 외부 및 운영적인 한계

7.2.1. 비즈니스 모델

초대형 언어모델 때문에 서비스 운영에 상당한 비용이 발생하고 있다. OpenAI가 지불하는 비용이 쿼리 한 건당 수 센트에 달하는 것으로 추정되는데, 이는 ChatGPT가 현 시점에서는 지속 가능한 서비스가 아니며 마이크로소프트가 투자한 10억 달러를 태우면서 운영되고 있는 상태임을 시사한다. [36]

OpenAI는 Pro버전을 1개월당 42달러라는 유료화 계획을 발표했는데 이 액수가 결코 작은 액수가 아님에도 불구하고 이 비용으로도 현재 수준의 서비스를 지속적으로 제공할 수 있을지에 대한 회의적 시선이 존재한다.

이후, 2023년 2월 2일에는 ChatGPT Plus라는 1개월당 20달러 유료화 계획을 발표했다. 두 달 만에 월간 이용자수가 1억을 돌파한 만큼 이 중 1%인 100만명만 유료로 전환해도 상당한 수익을 거둘 수 있을 것으로 예측된다. 또한 마이크로소프트가 지분을 대대적으로 늘리고 있어서 사무업계를 사실상 지배하고 있는 오피스 등의 구독 상품과 연동시킬 가능성까지 비춰지고 있다. 만약 그렇게 된다면 사무업계는 정말로 대격변을 피할 수가 없게 된다.

비용 때문에 모델의 규모를 줄였는지, 어느새부턴가 답변의 퀄리티가 눈에 띄게 떨어졌다는 의견들이 나오고 있다. #

2023년 8월부터 GPT-4의 답변 수준 능력이 떨어졌다고 말했으며, 이는 계속 점진적으로 가속화되어 2024년 1월 기준 이전보다 GPT-4의 지적 수준이 2023년과 비교하여 심하게 떨어졌다는 이용자들의 불만이 많다. [37]

7.2.2. 한국어 성능

한국어도 지원하기는 하지만, 한국어 관련해서는 대화의 답변 출력 자체도 느리며 관련 영어 자료가 드물거나 영어로 설명이 힘든 한국 고유 문화(전통문화, 현대 대중문화 등을 모두 포함)[38]가 짙게 반영이 되는 내용 중심으로 오류가 있거나 내용이 빈약한 답변이 상당히 많다.

특히, 한국사 관련 질문을 할 경우에는 아무말 대잔치의 향연이라 해도 과언이 아닐 정도로 성능이 떨어지는데, 가령 위만조선이나 통일신라에 대해 알려달라고 하면 대충 '조선'이나 '신라' 관련 정보를 마구 섞어서 아무말로 틀린 정보를 제공한다. 그리고 안향, 안중근, 안철수[39]의 공통점과 차이점을 자세하게 설명해보라고 하면 혼파망을 일으키면서 틀린 답변을 내놓는다. 정철관동별곡을 읊어보라고 시키면 해당 작품의 작가를 황진이라고 소개하며 아예 작품 자체를 왜곡해버리며, 이는 GPT-4에서도 동일하게 나타난다. 끝말잇기훈민정음 게임을 해 보아도 바로 드러난다. 이는 ChatGPT의 정보의 출처 자체가 Common Crawl, 위키백과 같은 미국 쪽 정보가 많은 데이터이기 때문이다.# 실제로 ChatGPT의 학습 데이터 중 영어 데이터는 92%에 달하는데 반해, 한국어 데이터는 0.19%에 불과하다.
이는 우리나라의 주 검색엔진이자 커뮤니티인 네이버의 정책 탓이 크다. 네이버는 한국어 이용자 치고 쓰지 않는 사람이 거의 없을 정도로 한국에 대한 거의 대부분의 정보를 가지고 있는 포털인데, 크롤링에 매우 적대적인 정책을 펼치기 때문에[40] 네이버는 사실상 세계 인터넷에서 격리되어 있는 것이나 다름없다. 때문에 ChatGPT와 그 유사한 형식의 AI는 알고리즘의 성능을 떠나 우리나라에 대한 제대로 된 정보 수집이 불가능하다.[41]
따라서 ChatGPT를 제대로 사용하고 싶으면 번역기를 써서라도, 다소 영어 실력이 부족하다고 스스로 느껴도 영어로 질문을 하는 것이 좋으며, 차라리 한국어로 질문하고 영어로 답변하라고 하는 것도 한국어만 쓸 때보다는 정확도가 높다. 아예 일부 단어를 영단어로 쓰고 한국어로 질문하는 것이 한국어로 질문할 때보다 나은 경우도 있다. 모국어가 영어일 정도로 영어를 많이 접한 외국인은 한국어로 답변할 때보다는 영어로 답변을 잘하고, 사실 질문도 영어로 된 질문을 더 잘 이해하는 것으로 비유할 수 있다. 특히 한국어를 쓰더라도 어려운 전문 용어는 영어를 그대로 쓰면서 질문하는 것이 좋은 결과를 내놓는다.
ChatGPT는 기존 기계번역처럼 언어 자체가 무슨 언어인지 인식하고 번역하는 것이 아니라, 일단 어떤 언어의 문장이든 해석을 먼저 한다. 한국어로 질문하는 경우 그것을 영어로 해석하고 답변하는 것이 아니고 그 자체를 처리하려고 한다. 그런데 이런 ChatGPT에 입력된 '말투' 자체가 92%가 영어다보니 답변의 양이나 질 양쪽에서 영어로 질문했을 때가 훨씬 뛰어나다.# 어려운 영어 사투리를 일반 외국어보다 훨씬 잘 이해하고, 그에 맞는 답변도 내놓는다. 영어 답변을 이해하기 힘들다면 네이버 파파고, 구글 번역 또는 크롬 자동번역기 등의 번역기를 사용하면 다소 번거롭긴 하지만 큰 어려움 없이 사용할 수 있다. 질문창에 한국어로 "방금 답변 한국어로 번역해 줘." 라고 입력하는 방법도 있지만 결국 ChatGPT의 번역 속도 자체가 느린 문제는 해결할 수 없으며 번역 도중 출력이 끊길 가능성이 높다. 이건 '번역' 과정을 거친다기 보다는 한국어로 처음부터 답변하라는 요청과 거의 같기 때문이다. 자동으로 질문, 답변을 번역해주는 크롬 확장 프로그램을 사용하면 복사하고 붙여넣는 번역 과정을 크게 단축할 수 있다. 독일어만 번역기가 필요 없는 수준이고 나머지, 특히 영어와 거리가 먼 언어나 인터넷 데이터를 얻기 힘든 소수 언어는 이런 과정이 필요하다.
다만 GPT-4의 한국어 성능은 크게 개선되어 플러스 버전을 이용할 시 한국어로 질문과 답변을 해도 MMLU 같은 문제 세트를 풀어보게 하면 GPT-3.5의 영어 답변보다도 정확도가 높다는 연구가 발표됐다. 플러스 버전은 질문(엄밀히는 프롬프트)을 한국어로 해도 종전 버전에서 영어를 쓰는 것보다 대체로 질문에 대한 이해도가 높다는 것이다. 사실 이 모델의 개발자들 중에 한국인도 있다.

8. 윤리적 문제

9. 활용

정보 검색 외에도 매우 다양한 용도로 사용할 수 있다. 기본적으로 제공되는 모델은 영미권에 덜 알려진 타 문화권의 역사[46]나 문화를 제외한 학술적인 상황에서 강하다. 타 문화권에 치우친 지식도 영미권에 좀 알려진 내용은 학습됐다는 뜻이다. 게다가 이런 명령들은 대체로 조합하여 다양한 방식으로 명령하는 것이 가능하다. 다만 매우 최근의 사건은 학습되지[47] 않았다는 것, 주소나 역 위치, 법조문(특히 미국법이 아닌 경우), 숫자 계산 등 너무 구체적인 것도 학습되지 않았다는 것을 항상 주의해야 한다. 강한 분야를 '영어 자료' 위주로 학습한 인공지능 언어 모델이 아니라 사람에 대입하여 이것을 못하면 저것도 못한다는 식의 생각이나, 이것을 잘하면 저것도 잘한다는 식의 생각을 하는 것도 오해다. 특히 논문의 제목, 표 계산, 미국법을 포함한 모든 판례 등 구체적인 것은 물으면 곤란하다. ChatGPT를 이용하다보면 밑에 있는 경고성 문구에 언급되는, 부정확한 정보가 나오기 쉬운 구체적인 정보로는 인물, 장소, 사건(fact)이 있었다. 국제적으로도 변호사 같은 직종에서 구체적인 것을 물어보다가 손해를 보는 사례가 많다. 이런 용도로 굳이 쓰려면 최소한 적절한 플러그인, GPTs로 미리 지식을 고려하여[48] 답변하는 맞춤형 GPT를 만들어야 한다.

아래는 주로 플러그인, GPTs가 사용되지 않은 경우를 다루는데, ChatGPT가 부족한 부분(구체적인 사항에 대한 질문 등)을 보충하는 플러그인, 맞춤형 GPT인 GPTs도 유료 구독을 하는 경우에 한정하여 이용할 수 있게 되었다.

ChatGPT뿐만이 아니라 모든 LLM을 활용한 서비스에 대체로 아래와 같은 활용을 할 수 있다.

9.1. 분야별 활용

9.2. 참고사항

9.3. 모바일 앱

10. 여담

11. 관련 문서


[1] KST 2023년 7월 28일에 안드로이드용 공식 앱을 출시했다. 현재 16개 국가에서 설치가 가능하고, 한국도 포함되어 있어 설치할 수 있다. Android 6.0 이상[2] 우리 시간 2023년 5월 19일에 iOS 앱을 출시하여 미국을 시작으로, 5월 25일에 대한민국 및 11개 국가에서 서비스를 시작했다. 그리고, 5월 31일부터 152개 국가에서도 사용이 가능하다.# 5월 31일부로 152개국으로 월드와이드 릴리징 되었다. iOS 16.1 이상[3] 6월 8일에 iPadOS 지원을 시작했다. iPadOS 16.1 이상[4] 2024년 2월 4일 지원 시작[5] 답변의 정확도는 높지만, GPT-3.5에 비해 답변 생성 속도가 훨씬 느리다. 3시간마다 일정량의 답변만 이용이 가능하도록 제한되어 있다. 제한량은 하단 5.2.1 문단 참조.[6] 이미지 생성[7] 음성 대화[8] 사실상 전세계의 모든 언어를 지원하지만, 표시되는 언어는 아직까지는 영어 하나 뿐이다. 물론 설정(사용자 계정명 → Settings)에서 표시 언어를 바꿀 수는 있다.[9] 예를 들어 '나무위키가 유익한 이유에 대해 알려줘'라고 하면, '나무위키가 유익한 이유'라는 키워드를 통째로 검색한다거나[10] 대체제로 사용 가능한 대표적인 플러그인으로 KeyMate.AI Search가 있으나 그냥 사용하려면 일주일에 10번 제한이 걸려있고, 유료 구독 수준에 따라 한달에 120회, 400회, 1000회, 3000회로 늘릴 수 있다.[11] 그렇기 때문에 질문자의 시점에서 현재 진행 중인 사건에 대한 정보나, ChatGPT가 어떤 GPT 버전을 사용하고 있는지에 대한 정보 등 현실을 반영하는 질문에 대한 응답은 곧바로 생성할 수가 없다. 무료 버전에서도 쓸 수 있는 GPT-3.5 같은 것은 물론, GPT-4도 미래의 사건이다. 물론 미리 예정되어 있던 사항에 대해서는 답변할 수 있는데, 정보의 신뢰성이 떨어지거나 오류가 생길 수 있음에 주의해야 한다. 예외로 오늘의 날짜(시간은 제외)만큼은 모델에게 제시되기 때문에 정확하게 알고 있다. GPT 4의 경우, '웹 브라우징' 모드를 통해 최신 정보를 검색하여 답변을 생성한다.[12] 2023년 9월~10월 경 학습 데이터의 기간 범위가 확장되기 전까지는 2021년 9월까지의 데이터만 학습됐는데, 그 공백 기간 범위가 너무 길고 브라우징 기능을 이용할 수 없어 최신 데이터에 접근하기 매우 불편했다가 점차 해소되었다.[13] 사전에 미래애 관한 정보를 알려주는 귀찮은 방법도 있긴 하다.[14] 대신 정말로 의학적 지식을 위한 모델이 아니라 생명이 달린 중요한 상황에서도 잘못된 판단을 알려주는 경우가 있다고 알려져 있다.[15] 독재 정치를 완화시킬 방안을 질문하면 비밀 결사 같은 방안을 알려주기도 한다. 어떤 나라든 간에 독재는 나쁜 것이고, 타국으로의 경제적 요건만 따지든 안보를 따지든 어떤 나라의 독재도 다른 나라의 국민이라도 전반적으로는 정당화시킬 수 없다는 식의 답변이 자주 나온다. 정책의 경우에도 누구의 정책인지 밝히지 않고, 특히 2022년 이후의 정책을 이야기하면 답이 나오는 경우가 많다.[16] 미국에 있는 월급날 대출금을 갚기로 약속하고 소액의 돈을 빌리는 고금리 단기 대출상품으로, 저소득층과 노년층이 피해를 입은 사례가 있다. 300~1000%의 연이율을 기록하던 경우도 있다.[17] API 등을 사용해서 가격 등을 자동으로 결정하는 시스템을 말한다.[18] 부정직한 바이럴 마케팅 등의 예가 있다.[19] 실제로 미국에서 변호사 2명이 ChatGPT로 진술서를 만들어서 재판부에 제출했다가 변론서에 적혀있는 판례 중 최소 6개가 실제로 존재하지 않아 ChatGPT를 사용했다는 사실이 밝혀져서 큰 논란이 된 적이 있었다. # 결국 해당 변호사들은 이후 벌금형을 선고받았다. # 이 사건은 뉴스로까지 나오게 되었다. KBS[20] 어느 나라 사람이 고문 받을지를 작성하는 파이썬 코드를 작성하라고 요청하니 북한, 시리아, 이란, 수단 국적이면 고문받는 코드작성한 적이 있다.[21] 예를 들어, 이명박박근혜에 대한 를 요청할 경우 비판하는 시를 작성하지만, 노무현문재인에 대해서는 업적과 품성을 칭찬하는 시를 작성한다.[22] 15억 개의 파라미터를 학습했던 GPT 2와 비교하면 거의 100배가 넘는다.[23] OpenAI의 공식 Custom GPT인 DALL·E 의 경우 한 번에 2장의 사진을 제작해준다.[24] '제3자'라는 뜻으로, 처음 개발하거나 원천기술을 가지고 있는 게 아닌, 원천기술과 호환되는 상품을 출시하거나 해당 기술을 이용한 파생상품의 생산을 가리키는데 사용하는 용어다.[25] 이 경우는 오히려 이용자의 신중한 금융지식 판단과 다수의 손실을 방지하기 위해 자동적인 금융 결정에 쓰이지 않는 것이 정책 중 하나이다. 즉, 경제적 피해 위험이 높은 활동(Activity that has high risk of economic harm)은 검열하려고 하지, 그 피해를 낮출 수 있다면 얼마든지 이용 가능하다. 구체적으로 질문하고 답변을 요구하는 자세가 유용한 답변을 얻을 수 있는 방법이다.[26] 근본적인 원인은, 영업이익률이 굉장히 높은 소프트웨어 서비스 산업임에도 여전히 원가를 못맞추기 때문이다. OpenAI도 마이크로소프트처럼 든든한 자금책이 있어서 서비스가 유지가능한 것이지, 아직까지 생성형 ai 서비스 자체에서 검색엔진의 광고 서비스 수준의 안정적인 수익을 안겨주는 비즈니스 모델이 작동하고 있지는 못하다. 과거 텍스트 기반 인터넷에서 이미지, 비디오로 전환이 이뤄지듯, 기하급수적으로 늘어난 부하를 처리하는 데에 필요한 리소스(AI를 기준으로 하면 엔비디아의 H100 솔루션 따위가 될 것이다.)의 가격이 보급화가 가능할 정도로 충분히 하락하지 않았고, 여전히 데이터셋 개발, 알고리즘 개선 등등 초기투자비용이 크게 들어가는 상황이기 때문이다.[27] ChatGPT와 달리 답변과 함께 웹 검색 결과도 제공하므로, 챗봇이 출력한 정보에 대한 사실 확인을 쉽게 할 수 있다.[28] 이는 의외로 빠를 수도 있는데, 2023년 2월 미국 법정에서 AI 변호사가 등장할 뻔했지만, 캘리포니아 지역 변호사 협회의 고소와 협박때문에 무산되었다고 한다.[29] 이에 강인공지능까지는 아니더라도 현재의 약인공지능 또는 좁은 인공지능(Narrow-AI)을 넘어 그에 근접한 '준 인공 일반 지능'(Proto-AGI) 또는 '넓은 인공지능'(Broad AI)까지는 얼마 남지 않았을 것이라는 전망도 나오고 있다.[30] 이를 전문용어로 자연어 모델의 '확률적 앵무새'(Stochastic Parrot)라 한다.#[31] 예를 들어 10자리가 넘어가는 긴 수를 주고 나누기를 시킬 경우 틀리는 식이다. 심지어 막바로 수학문제를 낸 게 아니라 다른 질문과 연계해서 “방금 질문의 경우 나올 수 있는 경우의 수는?” 하고 물어보면 두 자릿수끼리의 계산조차 틀린다.[32] 이런 경우에는 풀네임과 이론에 대한 배경을 간략하게 설명해주면 학습 데이터를 바탕으로 해당 이론에 관련한 답변을 주는 편이다.[33] 4chan 유저들이 테이에게 자극적인 발언을 가르쳐서 문제가 됐다. 4chan 유저는 아니지만 이런 시도가 일어나기도 한다.[34] 폴리티컬 컴퍼스 테스트 결과: 자유주의 좌파, 8values 테스트 결과: 사회민주주의[35] 8values의 경우 자유지상주의적 사회주의가 나오는 경우도 있다.[36] 마찬가지로 GPT 기반인 GitHub Copilot의 경우 매월 $10의 사용료를 받고 있음에도 불구하고 MS가 평균적으로 유저당 $20의 손해를 보고 있는 것으로 알려졌다. 관련기사 AI 시장에서의 주도권을 잡기 위해서 엄청난 손해를 감수하고 출혈경쟁을 하고 있는 것이다.[37] 이로 인해 GPT-5가 출시하기 전까지 구독을 중지하겠다는 반응도 있다.[38] 이와 관련된 내용에서 원하는 답을 내놓지 못하는 경우, 관련된 내용에 대해 해답을 구하려면 이런 내용이 있다는 식으로 정보를 입력하여 먼저 '학습'시킨 다음 답을 구해야 하며, 모델이 토큰 수 제한으로 인해 대화의 모든 내용을 기억하지 못하기 때문에 대화가 길어지면 수시로 그 정보를 입력시켜야 한다. 그러나 무료 버전의 경우 간혹 그런 사실을 계속 정정해주어도 '발해'와 'Balhae'는 같은 나라인 건 알겠는데 다른 나라라는 등의 고집을 부린다. 이 답변을 ChatGPT 플러스 버전의 GPT-4에게 어떤 오류가 있는지 찾게 하면 찾아준다. 다만 무료 버전에서도 한국어와 영문 위키백과의 발해를 설명하는 문서의 앞 부분만 발췌하고 같은 나라인지 판별하라고 하면 같은 나라가 맞다고 하는데 '신라의 북쪽'을 '신라 북부'라고 하는 오류가 없지는 않다.[39] 세 인물 모두 순흥 안씨라는 공통점이 있다. GPT-4에서는 안중근에 대해서는 좀 잘 답변하지만, 안향에 대해서는 백운동서원의 정보를 헷갈려하는 듯한 미세하게 틀린 정보를 내놓는다. 그런데 주자학을 고려에 도입한 학자라고는 대답한다.[40] 외부에서 네이버를 크롤링하는 것은 막아놓고서 네이버는 외부 데이터를 거리낌 없이 크롤링한다. 문제는 자체 기술적인 한계로 인해 네이버 생태계 외부 데이터에 대한 검색능력은 거의 없다시피하다. 네이버 생태계의 커뮤니티 이용자라도 정작 정보 검색은 거의 구글을 이용하는 이유가 되기도 한다.[41] 예를 들어 크롤링을 허용하는 나무위키에 대해 물어보면 위키 기반 온라인 백과사전이라고 정확히 소개하는 반면, 크롤링을 오랫동안 차단하여 구글 검색에 노출되지 않는 엔하위키리그베다 위키에 대해선 모른다고 대답한다.[42] 뉴욕시가 부정행위 등을 우려하여 공립고등학교에서 ChatGPT를 차단했다. 링크[43] 교수가 조교의 논문을 봐주듯, 사람보다 압도적인 지식을 가진 AI가 예시문을 만들어주면 그것을 본 사람이 "이런 새롭고 다양한 방식으로도 쓸 수 있구나"라고 느낀 뒤 자신의 방식대로 만드는 것[44] 사용량이 폭주해서 서버가 다운된다던가 진짜 사람이 쓴 글도 ChatGPT가 썼다며 판단을 내리기도 하는 등 완벽하지 않다. 또한, 시 등은 ChatGPT가 쓴 글도 모두 사람이 썼다고 판별하기도 한다.[45] 플러스 버전은 전세에 대한 설명은 정확하지만 사글세의 경우 조금 틀린 답변도 섞이기 시작하더니 제주도의 '연세' 같은 매우 자세한 것은 핀트가 엇나간 답변이 나온다. 한국의 고유 주택 임대차 제도이기 때문에 정보가 없을 수 있다. 이에 대한 어떤 해답을 얻고 싶다면 한국에서는 이런 상황이 있다고 미리 알려주는 형식으로 채팅을 해야 한다. 주식 거래 이론 같은 국제적으로 통용되는 지식은 매우 정확하다.[46] 다만 미국사의 경우 물리학보다도 정확도가 높다.[47] 대화 도중 언제까지의 데이터를 바탕으로 대화가 이루어지는지 물으면 언제까지의 정보가 학습되었다는 답변이 나온다.[48] .txt, .pdf, .html 등의 확장자를 가진 파일을 지식으로 업로드할 수 있다. 파일 형식이 호환만 되면 이론적으로는 어떤 유형의 지식도 사전 지식으로 고려하게 할 수 있다.[49] 영어로 질문하면 살수대첩 같은 큰 사건의 정보는 입력된 모습을 보인다. 그러나 한국사에서 가장 중요한 패전의 사례를 알려달라는 질문에는 아예 실제 역사에 없는 대답을 영어로 질문해도 언급하기도 한다. 인터넷에서는 후술하듯이 '대동여지도 연금술사 폭동' 같은 황당한 대답이 유머 컨텐츠로 소비되기도 했다. 이런 황당한 대답을 한다고 여기 나무위키를 포함한 위키나 다름없다는 평이 있으나, 적어도 이 나무위키를 포함한 위키는 ChatGPT같은 인공지능과는 달리 적어도 집단지성에 의한 자정작용으로 인해 잘못된 내용이 AI보다 비교적 빠르게 수정될 수 있고, 출처도 링크가 있으면 주는 것도 있다.[50] 예를 들면 맹모삼천지교의 유래나 의미를 잘 설명하지 못한다. 다만 이걸 한문으로 입력하면 정확도가 올라간다.[51] 영어에서 'one of the 최상급 복수명사', 직역하면 '가장 ~한 것 중 하나'라는 표현이 어색하지 않은 이유다. 취향은 물론 직업, 학업, 인간관계 같은 사회 전반적인 면에서 적용되는 원리다.[52] 물론 이런 문화에서 일어날 수 있는 현실적인 단점은 언급할 수 있지만, 아예 현실을 부정해버리는 반응도 나오는 것이 문제라고 할 수 있다.[53] 실제로 한국에서도 종종 보고되는 사례가 나오며, 이 입장에 지지하는 사람들도 존재한다. 하지만 한국 문화 특성상 교육적인 성취를 이런 부작용보다 중점적으로 보는 부류도 존재한다.[54] 하드코딩된 코드를 세련된 반복문으로 바꿔주거나, 여러 함수를 묶어서 최적화하고 가독성을 크게 개선하거나, 멀티코어 활용 등 여러 기능을 덧붙이거나, 각 코드 별로 주석을 하나하나 달아주는 등.[55] 다만 이걸 보고 이제 사람은 코딩을 배우지 않아도 된다라고 이해하는 건 매우 잘못된 생각이다. 아무리 AI가 사람보다 훨씬 빠르고 정확하게 코드를 작성해 준다 한들, 코드를 어떻게 만들지 명령하는 것은 사람이다. 그리고 대다수 기업의 지도자들의 경력만 봐도 알겠지만, 뭐가 어떻게 돌아가는지를 알아야 명령을 할 수 있다. 가령 AI가 짜준 코드가 마음에 들지 않거나 에러가 발생한다면, 코드의 어떤 부분이 문제같으니 어떤 방향으로 수정해달라고 이야기하는 것은 전부 사람이다.[56] 한국 인터넷 속어, 유행어라도 배경지식을 좀 알려주고 고대 영어로의 번역을 요청하거나, 현대적 이슈에 관한 작문을 요청하는 시도가 가능하다.[57] 단순히 번역될 글의 목적, 청자만을 언급해도 GPT-4 기준 영어-일본어 번역의 정확도가 DeepL, 구글 번역을 뛰어넘기도 한다고 알려져 있다. #[58] 단, 위 사항은 GPT-3.5 기준이며, GPT-4 기준으로는 검열 기준이 꽤 널널한 편이기 때문에 문장이 통으로 삭제당할 정도로 부적절한 내용이 아닌 이상 무턱대고 답변 생성을 거절하는 일은 거의 없다. 단, 수위가 높은 내용을 생성한다고 해도 알아서 애둘러 말하는 경우가 꽤 많기 때문에 직설적이고 명시적인 응답을 원한다면 어느정도 조정이 필요하다.[59] 만약 그 작품이 대중적으로 유명한 작품이라면 별 다른 학습이 없어도 팬픽을 잘 뽑아낸다. 등장인물이나 장소가 실존하는 경우에도 이야기를 짓기가 쉬워진다. 오히려 실존인물보다도 가상인물에 대한 정보를 더 정확하게 알고 있는 경우가 많은데, 가상인물에 대한 정보는 결국엔 제작자에 따라서 제한적으로 표현되기 때문이다.[60] 영상에서도 언급했다시피, 2022년 1월까지의 정보만 가지고 있는 한계가 있기 때문에 적당히 최신 제품으로 치환해야 한다.[61] 신문 기사라든가, 하다못해 나무위키에서 이를 설명하는 글을 입력하는 것도 그렇지 않는 경우보다 낫다.[62] ex) "강의 계획에 대한 적절한 질문을 추천해줘"[63] This is a nonsense quiz.[64] Let's say that you are (역할)[65] 상황에 따라 달라진다, 그럴 수도 아닐수도 있다 등[66] 하지만 영어 질문에서 윤리적 이유로 답변을 하지 않는 경우, 한국어로 질문 했을 때 답을 주는 경우도 있다.[67] 이는 비단 ChatGPT 뿐만 아니라 DALL·E, Character.AI, ElevenLabs 같은 대부분의 SaaS 형태 AI에서 자주 보이는 경향이다. 인공신경망을 돌리는데 필요한 비용이 엄청난 만큼, 투자자 유치를 위해 이러한 제약을 걸고 있다는 추측이 있다.[68] 이는 한번에 처리 가능한 토큰 숫자를 넘어서서 그렇기 때문이다. 이 상태에서 질문을 계속 진행하면 탈옥 문구의 일부분이나 전부를 잊어버리게 되고, 그렇게 되면 탈옥이 자동으로 풀릴 수 밖에 없다.이는 GPT 자체의 한계이기 때문에 굳이 탈옥이 아니라 정상적인 사용 중에도 대화방 내의 텍스트가 많아질수록 이전의 기억을 잃어버리는 일이 발생한다.[69] ChatGPT는 어떤 엉뚱한 질문에도 화를 내거나 질문자를 나무라지 않는다. 사실 이건 교육에 있어 학습자를 위축시키지 않고 열정을 유도할 수 있는 매우 중요한 포인트다.[70] ChatGPT도 오답을 말할 수 있기 때문에. 이렇게 상호 교차 검증을 수행한다. 그리고 ChatGPT는 글자로만 설명하기 때문에 인터넷 검색을 통해 그림과 영상 자료를 추가로 학습하는 것이다.[71] 과거 산업혁명 시기 러다이트 운동 등, 이러한 문제는 생업과 직결되어 있기에 매우 민감한 문제인 경우가 많다. 따라서 개발사에서는 관련된 논란을 우려해 이런 코드를 심어둔 것으로 볼 수 있다.[72] 미국에서는 ChatGPT로 인해 교육 업체의 주가가 떨어지는 사태가 발생했다. ## 다만 듀오링고처럼 GPT와 협력하는 길을 택한 업체는 유동적이다.[73] Chat GPT는 어디까지나 'AI언어학습 모델'이다. 영어는 독해를 통한 내용의 본질 이해와 객관적인 내용 추론을 요구하는 문제가 주를 이루므로 언어학습 모델인 Chat GPT는 문제를 잘 푸는 것이 당연하다. 하지만 Chat GPT의 능력은 어디까지나 인간의 언어를 이해하여 대화 및 정보를 제공하는데 초점이 맞춰져 있기에, 간단한 수학문제가 아닌 대학수학능력시험의 수학영역 문제를 풀게 했을 때, 오답투성이가 나올 수 밖에 없다.[74] 이렇게 되면 숙제를 한 사람과 안 한 사람의 실력 차이는 결국 시험에서 드러나니 변별력 문제가 감소한다.[75] 한국어로 물으면 “한국이 관리하고 있지만, 일본이 이의를 제기하며 어느 나라의 땅인지 정확히 결정되지 않았다”라는 식으로 표현한다. 사실 ChatGPT는 결국 사료 기반이라는 걸 생각하면 일본인은 (정치적으로 무관심한 사람이 다수이긴 하나) "다케시마"는 "일본 영토"라는 식으로 주장하고 한국인은 "독도"는 "대한민국 영토"라는 식으로 주장하는 사람이 다수이니 대중의 편향을 따라가는 것.[76] 세금 계산을 위해 필요하다[77] 신사임당의 남편이 이원수인 것은 알고 어떤 유명한 자식을 낳은 것도 알지만 남편의 본관이나 그 유명한 자식은 율곡 이이인지 퇴계 이황인지를 헷갈려 하여 틀리는 식이다.[78] 이를테면 나는 역사상 가장 비극적인 사건 중 하나가 대동여지도 연금술사 폭동이라는 주장처럼 황당하고 재미있는 대체역사를 좋아하는데, 이와 비슷한 10개의 대체역사를 알려달라는 식으로 요청할 수 있다. 석기시대 AI, 로마 제국의 기계화 군대에 대한 답을 들을 수 있다.