나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2024-11-21 15:16:43

구글 딥마인드

딥마인드에서 넘어옴

파일:알파벳 로고 화이트.svg
{{{#!wiki style="margin:0 -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px; word-break:keep-all; font-size:0.9em"
자회사
Google Calico DeepMind Fitbit
Google Fiber verily CapitalG GV
SIDEWALK LABS WAYMO Wing X Development
인물
세르게이 브린 · 래리 페이지 · 에릭 슈밋 · 존 헤네시 · 선다 피차이 · 아서 레빈슨
}}}}}}}}} ||
<colbgcolor=#79bfed><colcolor=#fff> 구글 딥마인드
Google DeepMind[1]
파일:7BCACE51-EC6E-436E-8047-693120264471.png
설립일 2010년 11월 15일 ([age(2010-11-15)]주년)
설립자 데미스 허사비스
셰인 레그[2]
무스타파 슐레이만
국가
[[영국|]][[틀:국기|]][[틀:국기|]]
모기업 구글[3] (2023년~ )
산업 인공지능
경영진
CEO
데미스 허사비스
COO
릴라 이브라함
순자산 3억 8,222만 파운드 (2023년 12월)
매출 15억 2,688만 파운드 (2023년)
영업이익 1억 3,625만 파운드 (2023년)
순이익 1억 1,294만 파운드 (2023년)
고용 인원 약 2,600명 (2024년)
상장여부 비상장 기업
법인 영국
주소 영국 런던 킹크로스 6 Pancras Sq
링크 파일:홈페이지 아이콘.svg | 파일:X Corp 아이콘(블랙).svg | 파일:유튜브 아이콘.svg
1. 개요2. 역사3. 알파 시리즈
3.1. 알파고3.2. 알파제로3.3. 뮤제로3.4. 알파스타3.5. 알파폴드3.6. 알파 프로테오3.7. 알파코드3.8. 알파지오메트리3.9. 알파프루프
4. 상용 모델5. 기타 주요 개발 성과
5.1. DQN5.2. Gopher5.3. DeepNash5.4. Graphcast5.5. RT-X
6. 개발 계획7. 아이소모픽 랩스8. 우려점

[clearfix]

1. 개요

알파벳 산하의 인공지능 연구 기업. 주요 목표는 머신러닝신경과학을 기반으로 인간의 지능을 분석 및 구현하는 것이다. 인공물에 인공 지능을 탑재하는 것 뿐만 아니라, 더 나아가서 인간 지능의 궁극적인 이해를 목표로 두고 있다고 한다.

2010년대 들어 인공지능 학계뿐만 아니라 일반인들에게까지 화제가 될 정도의 성과를 연이어 발표하고 있다. 창업자이자 CEO인 데미스 허사비스는 16세부터 Bullfrog에서 다수의 게임 인공지능을 프로그래밍하였으며, 블랙 앤 화이트에서 구현했던 강화 학습 인공지능이 계기가 되었는지,[4] 2020년대에도 강화 학습을 중심으로 한 인공지능들을 개발하고 있다.

2. 역사

2010년 11월 만물의 근원을 해결할 지능을 구축하고자 하는 사명으로 데미스 허사비스, 무스타파 슐레이만, 셰인 레그가 공동으로 설립했다.

2014년 1월 구글이 4억 파운드에 달하는 금액으로 인수한다는 소식이 알려졌다.[5][6] 구글에 매각하기에 앞서 자사가 개발한 인공지능이 아타리 게임을 하는 시연을 보였는데, 인공지능의 창의적인 플레이에 구글 경영진들이 엄청난 감명을 받았다고 하며 매각 후에도 독립 자회사로 남는다.

2016년 2월 24일 딥마인드헬스를 런칭했다.

2016년 구글 딥마인드로 사명이 변경되었다.

2021년 10월, 회계년도 2020년에 순이익 5,960만 파운드를 기록하며 창립 이후 최초로 흑자 전환되었다고 한다.# 매출은 11억 달러 수준으로 추정된다.

2023년 4월 21일, 알파벳의 CEO 선다 피차이는 구글리서치 산하의 AI 팀이던 '구글 브레인'을 딥마인드와 합병한다고 밝혔다. 사명을 구글 딥마인드로 바꾸고, 기존 알파벳의 자회사가 아닌 구글 직속으로 편입시킨다고 밝혔다. 부서 통합으로 프로젝트를 통합하고 인재들을 한 부서에 집중시킴으로서 오픈AI로 인해 촉발된 생성형 인공지능 경쟁에서 우위를 확보하겠다는 전략으로 해석된다.

2024년 4월 18일, 구글리서치의 인공지능 관련 부문을 구글 딥마인드 산하로 편입시킨다는 소식이 알려졌다. 무스타파 슐레이만이 경쟁사인 마이크로소프트로 이직함에 따라, 데미스 허사비스의 딥마인드에 보다 힘을 실어주며 조직 통합을 통한 효율성 증대를 목표로 하는 듯 하다.

3. 알파 시리즈

인공지능이 어떤 분야까지 개척할 수 있느냐 개념증명을 목적으로 개발되는 모델들. 핵심 분야는 게임과 STEM분야이며 대개 알파XX와 같은 이름이 붙는다[7] 초기에는 CNN기반이었으나[8] 트랜스포머가 세상에 나온 이후 트랜스포머 기반으로 개발 중이다. 강화학습을 적극 도입하는 것도 특징 중 하나다.
처음 개발 될때에는 특수한 도메인에서 높은 성능을 보여주다가 이후 후속 버전이 나오면 성능이 올라가거나 적용 도메인이 넓어지는 일반화 능력이 강조된다. 초기 개발 버전은 보통 상업적 목적으로 이용되지 않으나 후속 버전의 경우 기술 제휴 등으로 상업적 목적에 이용되기도 한다. [9]

3.1. 알파고

2016년 1월 네이처에 게재.[10] 강화 학습 가능한 심층 신경망과 몬테카를로 트리 서치를 이용한 바둑 프로그램으로 인간 프로 수준을 능가하는 기력을 달성하였다.

2016년 3월 인공지능 바둑 프로그램 알파고를 이용해 구글 딥마인드 챌린지 매치를 열었다.

3.2. 알파제로

논문보기

2017년 12월 arXiv를 통해 공개됐다. 알파고 제로에서 ''가 빠진 것에서 알 수 있듯이 기존 알파고 제로의 알고리즘을 일반화시켜 다른 게임에도 적용할 수 있도록 한 것이다. 논문에서는 바둑, 체스, 쇼기를 학습했으며, 기존 최강급 알고리즘을 모두 꺾었다. 논문에서는 체스를 위주로 설명했으며, Stockfish를 상대로 승리한 기보 10개를 공개했다. 이를 본 외국의 체스팬들 역시 스카이넷 드립을 쳤다.

흑/백으로 각각 50판씩 두었다.
2018년엔 Stockfish9와 두번째 체스 대결을 했다. 총 1000판을 했으며, 155승 839무 6패의 성적을 올렸다. 스톡피시에게는 오프닝북 데이터베이스를 사용할 수 있게 하고, TCEC와 동일한 머신에서 동작하도록 했다. 두 엔진간 시간을 다르게 주어본 경우도 테스트 했는데, 스톡피시가 알파제로에 비해 10배 이상의 시간을 사용할 때부터 두 엔진의 승률이 비슷하게 나왔다고 한다.

2020년엔 체스에서 규칙들을 수정한 여러 번형룰을 학습시키고 연구한 결과를 논문을 통해 공개했다. 구현한 규칙은 캐슬링 금지, 스테일메이트 시 승리, 이 옆으로도 이동 가능, 후진가능, 항상 2칸 이동 가능, 자신의 기물을 잡을 수 있음 등이 있었다.

2024년에는 알파프루프의 핵심 컴포넌트로 활용되어 IMO에서 은메달을 획득하는 쾌거를 달성했다.

3.3. 뮤제로

2020년 12월 23일 네이처에서 발표된 AI이다. # 사전에 게임 규칙을 입력해주지 않았음에도 바둑, 체스, 쇼기에서 보여줬던 알파제로의 능력은 물론 알파제로의 활동영역이 아니었던 아타리 게임까지 정복했다. 딥마인드측은 유튜브의 동영상 압축에 뮤제로를 적용하는 방법을 꾀하고 있다. 동영상 압축 효율을 높이면 유튜브 운영에 들어가는 비용을 줄일 수 있기 때문이다.

3.4. 알파스타

파일:상세 내용 아이콘.svg   자세한 내용은 알파스타 문서
번 문단을
부분을
참고하십시오.

바둑은 완전 정보 게임(게임의 모든 상태가 오픈된 상태에서 진행하는 게임)의 끝판왕이었는데, 이를 클리어 했으므로, 포커나 스타크래프트 같은 불완전 정보 게임(게임 상태의 일부만 플레이어가 알 수 있음)에 관심을 가지고 있다고 한다. [14] 2016년 11월 5일, 구글은 블리즈컨 2016에서 딥마인드를 스타크래프트 2의 인공지능에 적용시킬 것이라 발표하였다. #
알파스타에 대한 딥마인드의 설명은 블로그에서 확인 할 수 있다. 해당 블로그에 대한 한글번역은 다음 링크에서 확인할 수 있다.

다만 이러한 게임들은 테스트베드일 뿐이고, 건강 관리나 스마트폰 어시스턴트 같은 일반적인 문제에 인공지능을 도입하는 것이 최종 목표인 듯.

3.5. 알파폴드

파일:상세 내용 아이콘.svg   자세한 내용은 알파폴드 문서
번 문단을
부분을
참고하십시오.
컴퓨터로 단백질 구조를 예측하는 대회인 CASP에서 괄목할만한 성적을 냈다. 아미노산들이 연결된 패턴을 통해 단백질의 3차원 구조를 예측하는 과정은 워낙 변수가 많아 지난 수십 년간의 연구에도 불구하고 아직 걸음마 단계로 평가받던 영역.

구글 딥마인드 측에서는 아미노산 시퀀스와 이미 실험을 통해 확인된 단백질의 3차원 구조 정보를 알파폴드에게 학습시키고 CASP에 출사표를 던져[15] 100점만점에 18년도에 60점, 20년도에 90점을 달성했다. 각각 최고점에 해당하며 90점을 달성한 시점에 구조생물학계의 신기원을 열었다는 평가가 잇따르는 중.

3.6. 알파 프로테오

2024년 9월 5일 발표된 단백질 설계 인공지능.

알파폴드와 같은 단백질 구조 예측툴은 단백질이 어떻게 서로 상호 작용하여 기능을 수행하는지 잘 예측하는 도구였으나 상호 작용을 직접 제어, 통제할 새로운 단백질을 만들 수는 없었다. 단백질 설계에 대한 최근의 기계 학습 접근 방식은 진전을 이루기는 하였으나 여전히 신뢰하기 어려웠는데다가 힘들고 광범위한 실험 테스트가 필요했는데 그 과정을 간략화, 자동화 하는 것이 알파 프로테오의 주 개발목적이다.

딥마인드는 알파 프로테오가 생물학적 과정에 대한 이해를 가속화하고 신약 발견, 바이오센서의 개발을 도울 수 있는 잠재력을 가지고 있다고 밝혔다. 알파폴드 개발 이후 학계의 다음 요구가 구조기능적으로 새롭고 유용한 단백질을 설계하는 AI였음을 고려하면 알파 프로테오의 등장은 여러모로 자연스러운 수순이었다고 할 수 있다.

딥마인드에 따르면 알파 프로테오는 암 및 당뇨병 합병증과 관련된 VEGF-A를 포함한 다양한 표적 단백질에 대한 새로운 단백질 결합체를 생성할 수 있었으며 [16] 또한 딥마인드가 테스트한 7가지 표적 단백질에 대해 지금까지 인류가 개발한 최상의 방법보다 더 높은 실험 성공률과 3~300배 더 나은 결합 친화력을 달성했다고 한다.

3.7. 알파코드

2022년 2월 3일 구글이 발표한 코딩하는 AI. 프로그래밍 경쟁 사이트인 Codeforces에서 상위 54%에 해당하는 기록을 달성했다.

3.8. 알파지오메트리

올림피아드 수준의 기하학 문제를 푸는 인공지능 시스템.

3.9. 알파프루프

딥마인드가 개발한 수학문제 풀이 인공지능으로 2024년 국제수학올림피아드(IMO) 기출 문제 6개 중 4개를 풀어내어 일대 파란을 일으켰다. 딥마인드는 이에 관해 “은메달 수준의 결과“ 라고 밝혔는데 실제 금메달 컷트라인과도 한 문제 차이만 날 정도로 높은 성취를 거두었다. 2025년에는 금메달 획득도 문제 없는 거 아니냐는 희망에 찬 예측도 나오는 상황.
알파프루프는 특히 트랜스포머뿐 아니라 신경상징추론(neuro-symbolic inference)체계가 융합된 하이브리드 아키텍쳐로 순수한 딥러닝 모델이 아닌 것으로 알려져 더욱 관심을 받고 있다.[17] 함께 공개된 알파지오메트리의 최신 버전 알파지오메트리2도 알파프루프와 마찬가지로 하이브리드 아키텍쳐 기반.

4. 상용 모델

4.1. Gemini

파일:상세 내용 아이콘.svg   자세한 내용은 Gemini(인공지능 모델) 문서
번 문단을
부분을
참고하십시오.
텍스트뿐만 아니라 오디오, 이미지, 비디오와 같은 다양한 입출력을 지원하는 멀티모달 인공지능이다. GPT-4와 유사한 성능이지만 바닥부터 멀티모달로 만들어졌다는 점에서 다르다.

4.2. Veo

파일:상세 내용 아이콘.svg   자세한 내용은 Veo 문서
번 문단을
부분을
참고하십시오.
동영상 생성 인공지능. 프롬프트 입력 만으로 1080p 동영상을 생성할 수 있다.

5. 기타 주요 개발 성과

5.1. DQN

구글 딥마인드가 개발한 기계학습 알고리즘. 바둑 프로그램 알파고는 이 알고리즘을 사용한다. 자세한 내용은 항목 참고.

5.2. Gopher

딥마인드 판 GPT-3. 2021년 12월 9일 발표. 동일 파라미터 수에 약 2배 뛰어난 MMLU 성능을 보였다. #

5.3. DeepNash

보드 게임 스트라테고 인공지능.

5.4. Graphcast

날씨예측 인공지능. 유럽중기기상예보센터(ECMWF)의 슈퍼컴퓨터가 예측에 실패한 허리케인 베릴의 경로를 가정용 컴퓨터에서 실행된 그래프캐스트가 정확히 예측해 화제가 되었다.#

5.5. RT-X

2023년 10월 3일자에 구글 딥마인드가 발표한 로봇공학 트랜스포머 모델. 딥마인드를 포함 34개의 대학 및 연구소에서 협력하여 개발한 데이터셋 Open-X embodiment와 기존에 딥마인드에서 개발한 로봇 제어 모델들을 바탕으로 하고 있다.

RT-X는 두 개의 트랜스포머 모델을 기초로 만들어졌다. 실세계에서 로봇의 움직임을 제어하는 RT-1-X와 웹 및 로봇공학 데이터기반으로 훈련시킨 비전-언어-동작(VLA) 모델인 RT-2-X가 바로 그것.

RT-X의 두가지 컴포넌트인 RT-1-X와 RT-2-X는 구글 딥마인드의 전작인 RT-1과 RT-2를 각각 기반으로 하고 있다. 하지만 다수 연구소의 협력을 통해 수집한 보다 다채롭고 규모가 큰 훈련 데이터셋 Open-x embodiment 덕분에 RT-1-X와 RT-2-X는 아키텍처 개선 없이도 오리지널 모델에 비해 상당한 개선이 이뤄진 것으로 보인다.

실제로 RT-1-X는 문을 여는 등의 특정 동작에 있어 RT-1에 비해 평균 50% 정도 더 높은 벤치마크 수치를 보여줬으며 RT-2-X는 RT-2에 비해 구글 자체 벤치마크 기준 3배나 많은 창발적인 동작을 보여줌은 물론 공간 이해도도 높아졌다고 한다.

공간 이해와 관련되어 홈페이지에 소개된 사례는 명령의 정교함을 예로 들 수 있다. 가령 RT-2-X 모델을 탑재한 로봇에게 "사과를 수건 근처에(besides) 둬"라고 명령하는 대신 "사과를 수건 위에(on) 둬"라고 명령하는 경우 궤적이 상당히 달라짐을 확인할 수 있었는데 RT-2와 달리 RT-2-X는 이처럼 전치사를 하나 바꾸는 미묘한 차이도 포착해 동작 제어에 반영할 수 있다는 것이다. #

이 같은 괄목할만한 개선의 바탕이된 Open x-embodiment에는 500개 이상의 전문기술과 150,000개의 과업에 대한 22개 로봇의 1백만 회 이상의 시행 데이터가 포함되어 있다고 한다.

흥미로운 점은 트레이닝 셋의 다변화를 통해 하나의 모델이 서로 형태와 크기, 목적이 다른 여러가지 로봇에 탑재되어도 능히 동작을 제어할 수 있게 만드는 동작 제어의 일반화를 달성했다는 것과 자연어 명령을 통한 동작 제어가 상당한 수준을 보여줬다는 것.

RT-X의 등장은 기존에는 딥러닝 분야에서 정복되지 못했던 영역인 체화(embodiment)마저도 일반화할 수 있다는 것을 일부 입증하는 동시에 훈련에 사용된 대규모 데이터마저 오픈소스화 함으로써 기존에 지지부진 했던 로봇공학에서의 ai적용 문제에 실마리를 던져줄 것으로 보인다.

이는 훈련 데이터를 오픈소스화 하지않으며 서로 다른 모달리티에 일반화 가능한 인공지능보다는 인간형 안드로이드개발에 특히 집중하는 테슬라 옵티머스와는 다소 상반된 행보이다.

하지만 구글 딥마인드가 RT-X를 공개 하기 불과 1주일 전 테슬라 측에서 옵티머스의 매끄러운 요가동작 및 분류 작업 수행영상을 공개했던 것을 고려하면 딥마인드와 테슬라에서 거의 시기적으로 겹치는 성과를 냈다는 것이 의미심장하다.

이는 기존에는 실패하거나 연구개발이 유예되었던 로보틱스 ai분야가 2023년을 기점으로 개발속도가 가속화되고 있다는 사인일 수도 있기 때문이다.

6. 개발 계획

7. 아이소모픽 랩스

딥마인드의 스핀오프로서 기획된 리서치 기업이자 신약 개발사로 기업지배구조 상으로는 모기업 알파벳에 소속된 별개의 기업이다.알파폴드개발을 계기로 창립되었다. CEO가 데미스 허사비스로 딥마인드와 같으며 알파폴드3등 각종 인공지능 모델을 딥마인드와 공동개발 하고 있다.

8. 우려점

2023년 7월 12일에 일론 머스크X.AI가 공식으로 출범되었는데, 공동 창업자 대부분이 구글과 딥마인드 출신이라 인재들을 빼앗긴 게 아니냐며 우려가 나오고 있다. 이곳 뿐만 아니라 코히어, Character.AI, Inflection AI, Mistral AI 등 대부분의 생성형 인공지능언어 모델 스타트업의 창업자와 핵심 임직원들은 구글 리서치 혹은 딥마인드 출신이다. 이러한 상황에 대해 무스타파 슐레이만은 생성형 인공지능은 구글의 비즈니스 모델과 완벽히 대립하는데다 상장기업 특성상 투자자들의 시선 때문에 전세계에서 가장 유능한 연구원들과 엔지니어들을 갖추고도 한 동안 해당 분야에 대한 발전이 더뎠다고 회상했다.[18]


[1] 2023년 4월, 구글 브레인팀과의 합병을 계기로 DeepMind Technologies에서 Google DeepMind로 사명 변경.[2] 뉴질랜드 출신의 신경과학자로 인공지능 분야, 특히 신경망과 강화학습 분야의 전문가다.[3] 2014년 구글에 인수된 이후 2015년부터 2023년까지 알파벳의 자회사였으나, 2023년 구글브레인과 합병 이후 구글 직속으로 편입되었다.[4] 인터뷰를 보면 나름 자부심을 가지고 있는 듯 하다[5] 래리 페이지와 인공지능의 잠재 위험성 여부를 두고 실랑이를 벌이던 친구 일론 머스크가 해당 건을 막으려고 시도했으나, 실패한 이후 샘 올트먼과 비영리 공익을 표방하며 설립한 게 OpenAI이다. 해당 업체는 2023년 ChatGPT의 성공을 통해 부메랑이 되어 돌아온다.[6] 한편 구글 인수에 앞서 페이스북도 2013년 딥마인드 인수를 시도했다고 한다.[7] 예외적으로 뮤제로에는 알파가 아닌 열두 번째 그리스 알파벳 가 이름에 붙었다. 일반화 능력이 알파제로보다 더욱 높아졌음을 보여주기 위해 붙어진 이름이다.[8] 알파고와 알파폴드1이 대표적인 예.[9] 대표적인 예시가 기성 제약회사들과 기술제휴를 맺은 알파폴드3이다[10] http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html[11] 2016 TCEC 우승 인공지능.[12] 체스는 백이 선이며, 기물이 적어지면 체크메이트를 할 수 없는 게임 특성상 무승부가 잦게 나온다.[13] 2017 CSA 우승 인공지능[14] http://www.theverge.com/2016/3/10/11192774/demis-hassabis-interview-alphago-google-deepmind-ai[15] 원래 2년에 한 번 개최된다[16] VEGF-A를 위한 성공적인 단백질 바인더를 설계한 것은 알파 프로테오가 처음이었다.[17] 트랜스포머 모듈 부분은 알파제로(alpha zero)로 알려져 있다.[18] 구글이 생성형 인공지능을 개발하는 것은 검색 광고 사업 매출을 축소시키는 자살 행위이고 신산업이라서 아직까지는 현금 흐름을 양으로 창출하기 힘든 돈 먹는 하마이기 때문에, 투자자들이 재무적으로 알아차리기 힘든 정도로만 투자하면서 독자적 상용화보다는 자사 제품 향상 용도 혹은 논문을 발표하며 연구 성과에 집중하고 있었다. 이런 와중에 ChatGPT가 돌풍을 일으키자, 소규모로 비밀리에 진행하고 있던 프로젝트들을 대중 앞으로 끌어오고 브레인 팀과 딥마인드를 합치며 적극적인 투자를 단행하게 된 것

파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는
문서의 r1790
, 번 문단
에서 가져왔습니다. 이전 역사 보러 가기
파일:CC-white.svg 이 문서의 내용 중 전체 또는 일부는 다른 문서에서 가져왔습니다.
[ 펼치기 · 접기 ]
문서의 r1790 (이전 역사)
문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)

문서의 r (이전 역사)