티스토리 뷰

개요

유튜브 채널 백색나무에서 자막을 달아준 샘 알트먼과 일리야 수츠케버의 텔아비브 대담을 보고 인상깊은 부분을 정리해본다.

유튜브 링크: https://youtu.be/oTBi5Y06UvY

대담

둘의 만남

일리야 수츠케버는 5~16살까지 예루살렘 살다가 토론토 대학에서 10년 정도 학사, 석사, 박사를 함. 그리고 알렉스넷을 만들고 샘 알트먼의 전화를 받고 그렉 브록만, 앨론 머스크를 함께 만나 OpenAI 시작

(생각) 샘 알트먼은 차분하게 경청하며 꼭 필요한 말만 한다는 생각이 들었다. 앨론 머스크와 만나면 무슨 대화를 나눌까 궁금해졌다.

OpenAI가 Generative AI의 선두가 된 이유

  • 집중, 확신, 신념
  • 인재의 양보다 인재의 질
  • 혁신과 엄격함의 조화

학계보다는 산업이 이끄는 인공지능

요즘은 산업에서의 인공지능 발전에 학계가 따라가지 못하는, 따라갈 수 없는 것만 같다.

사실이다. 크게 두 가지, 인프라와 엔지니어링 능력의 차이가 크다. 하지만 학계의 역할도 있다. 학계는 정말 중요하고 큰 문제가 무엇인지를 고민하고 거기에 집중해야 한다. 어떻게 동작하는지에 대한 이해, 어떻게 측정하고 제어할지 같은 문제가 있다.

OpenAI 같은 기업은 첨단의 모델을 학계의 연구에 지원할 수 있다.

(생각) 이것은 일리야가 감당할 수 없는 문제를 학계에 떠넘기는게 아닌가 하는 느낌을 받았다.

모델을 비공개하는 것에 대하여

  • 일부는 오픈소스로 공개하고 있고, 많은 아이디어들 역시 공개해왔다.
  • 비즈니스적인 측면이 아니라 안전 때문이다. 예를 들어, GPT-4는 완성후 8개월동안 동작 이해, 안전 보장, 정렬(Alignment, 제어측면)을 하고서야 서비스를 시작했다. 이를 위해 외부 감사, 레드팀, 커뮤니티가 참여햐였다.

인공지능의 위협 3가지

  • 경제상황의 급변: 정부, 기업, 개인이 최대한 부드럽게 넘어갈 수 있도록 해야 한다.
  • 강력한 무기: 현재는 그정도까지는 아니지만 멀지 않은 미래에 그렇게 될 것이다. 따라서 원자력에 대한 IAEA의 통제와 같은 국제적인 통제기구가 필요하다 생각한다.
  • ASI(Artificial Super Intelligence): 제어할 수 없는 ASI는 명백한 재앙이다. 충분히 대비해야 한다.

규제에 대하여

정렬되지 않은 ASI가 큰 문제라는 건 모두가 공감한다. SF라 생각지 말고 멀지않은 미래라는 것을 인식해야 한다. (다른 제안도 환영하지만) 샘 알트먼의 제안은 다음과 같다.

인류차원의 최첨단, 최정예 조직을 만들어 모델의 라이선스를 주고, 안전성을 검사하고, 테스트를 만들어 통과시키는 작업을 해야 한다.

이득에 대하여

과학은 엄청나게 진전할 것이고, 기후변화 같은 문제는 ASI에게 물어보면 바로 답을 줄 것이다. 아.니.다. 답을 알려달라는 것이 아니라 그냥 ASI보고 하라고 하면 된다.

OpenAI의 다음 세대 제품

OpenAI는 제품의 개념으로 접근하지 않는다. 좀더 신뢰할 수 있고, 추론의 능력이 개선되며, 제어할 수 있는 모델을 만드는 것이 목표이다. OpenAI의 목표는 세상을 놀라게 하려는 것이 아니라 믿고 의지할 수 있는 도구를 만드는 것이다.

질답

오픈소스 LLM이 따라잡을 수 있을까?

힘들 것이다. 돈, 사람, 연구, 인프라의 규모가 다르기에 오픈소스 진영이 기업을 따라잡기는 힘들다. 그 차이는 점점 커질 것이다.

위험할 수 있는데 왜 계속 개발하나? 규제를 하면 따를 것인가?

인공지능은 엄청난 진보를 만들어낼 것이며 이것은 피할 수 없다. 다만 그에 따르는 위험을 최대한 관리해낼 수 있어야 한다. OpenAI는 이러한 위험을 관리하기 위한 회사이다. 특이한 구조를 가져서 이익에 상한이 있다. 회사가 가질 수 있는 인센티브는 사회적 가치와 임무의 달성 그 자체이며 열정의 원동력이 된다. 회사는 컴퓨팅을 위한 돈과 사명을 위한 염려 사이의 균형에 진지하다.

따라서, 페이스북과 같은 기업처럼 규제를 비껴나갈 방법을 모색하기 보다는 규제를 따뜻하게 받아들일 것이다.

구글에서 유출된 해자가 없다는 문서에 대해

구글이나 OpenAI같은 기업을 오픈소스 진영이 따라잡는 건 시간문제라는 문서였다.

공개된 제품에 대해서 오픈소스 진영이 따라잡는 것은 순식간임을 인정한다. 하지만 OpenAI의 가장 큰 강점은 다음에는 무엇이 올지를 미리 알고 있다는 것이다. 이것이 해자이다.

로코의 바실리스크

ASI는 인류에게 크나큰 이득을 약속함과 동시에 엄청난 위협이 될 수 있다. 인류가 직면하게 될 도전이자 과제이다.

(참고) 나무위키 발췌: 미래에 특이점을 지나 전지전능에 가까운 초월적 인공지능이 등장하면 딱히 사악한 AI가 아니고 인간사회를 최적화 하려는 선한 의도의 AI라 하더라도 현재 시대에 그런 초월적 인공지능을 개발하는데 반대하거나 발전을 방해하는 사람들에게 심지어는 충분히 열심히 기여하지 않은 사람들에게 조차 미래에 고문이나 노예화 처형 등 가혹한 처벌을 할 것이라고 예언한 것. 즉 아직 존재하지도 않는 미래의 초월적 AI 가 현재에 사는 인간들을 협박을 하는 사례가 된다. 또 이런 협박을 사전에 들어보지 못한 사람은 어쩔 수 없으므로 용서할 수도 있지만 이런 협박을 듣고도 AI를 반대한 사람은 더욱 가혹하게 처벌할 것이라는 예언을 한다. https://bit.ly/3paWlF6

끝.

반응형
반응형
잡학툰 뱃지
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
글 보관함