AI강의, 박태웅, 2023

2024. 2. 13. 19:50책 읽기 영화보기 등

반응형

중앙도서관, 새책 코너에서 3권을 골랐다

익숙한 이름의 박태웅, 대학 동창이란 인연도 있지만, 경영학과 치고는, 사실은 이쪽에서 IT쪽으로 경도된 친구들이 몇 있다만, 경력이 꽤 일관되게 다르다

AI강의; 마침 김대식 교수의 동영상을 봤기도 하니, 비교적 막힘없이 읽게 되었다

- Chat ; 더이상 기계어 아닌, 일상 언어로 피씨와 대화한다. 대학 1학년때 포트란Fortran, 이게 전공필수였고, 그거 천공하기 위해서는 중앙도서관에서 자리싸움까지 해야했었던 기억

  • G: Generative, 생성형이라, 1500억걔의 사전 학습된 패턴을 가지고, 다음 문장 등을 예측하는, 그걸 생성이라고 표현하는 듯.
  • P : pre-trained, 사전에 학습된, 1,500억개의 단어에 대한 가중치 부여, 그러니까 각 가중치는 0.00000000----15, 이런 식으로 구성되겟지만, 이런 패턴과 가중치를 다 훑어 보는게, 우리 각 사람에게는 아마도 불가능할 것이라
  • T: transformer, 이게 아마도 생성형과도 같은 맥락일 것 같은데. 어쨋든, 챗GPT 이게 의미가 있는건, 사람에겐 불가능해보이는 1조개의 패턴에 대한 선택, 생성이 가능하다는 것일 터
  • 사실 사람들의 숫자 체계는 의외로 단순한다

[하나, 둘, 그리고 다]

이게 아프리카 원주민의 숫자관이라고 들었지만

실상, 일상생활에서 우리들의 셈법도 이걸 크게 벗어나지 않을 것이다

그런데, 챗지피티는 그런 셈법을 무식하지만, 그리고 무지하지만, 1조번을 반복 트라이얼 앤 에러를 1초에 300조번 할 수 있다니, 그게 엔비디아의 위대함, 병렬 계산의 대단함이라면, 이걸 검증할 방법이 문제이리라 싶다

그래서 책지피티는, 사실 핼루시네이션, 거짓말도 얼마든지 잘한다고 한다

결국 관건은 이런 무제한적 생산성의 챗지피티, 그걸로 생성되는 문장이나 기술문에 대한 진위여부에 대한 판단이 문제이리라

728x90
반응형