ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • GPT-4 이해하기 [OpenAI의 예상되는 행보]
    AutoGPT 및 AI CURRICULUM 2023. 5. 19. 18:12
    반응형
    SMALL

    GPT-4 출시, 인류 문화 바꿀 기술되나

     
    GPT-4는 기존에 비해 8배 이상 늘어난 2만 5천 개의 단어를 생성할 수 있다. (자료=오픈AI)
     

    PC, 인터넷, 스마트폰 등 특정 기술의 등장과 함께 우리의 삶과 산업이 혁신적으로 바뀌어 왔습니다. 이제는 이런 기술이 없는 생활을 상상하기 어려울 정도죠.

    오픈AI가 출시한 ‘GPT-4’도 우리의 삶에 변화를 줄 새로운 기술의 시작이 될지 주목받고 있습니다. 알트만 오픈AI CEO가 밝힌 것처럼 GPT-4의 AI 기술은 아직 완벽하지 않은 단계입니다.

     

    하지만 테스트 단계로 공개했던 GPT-3.5와 달리 GPT-4는 부분 유료화라는 자체 수익모델을 구축했을 뿐 아니라 이미 글로벌 IT 기업과 파트너십을 맺고 연계 서비스를 준비하고 관련 스타트업도 쏟아지는 중입니다. 기존 AI 서비스가 폐쇄된 환경으로 발전하지 못했던 것과는 분위기가 다르죠.

     

    너무나 빠른 발전 속도로 인해 AI 개발을 잠정 중단해야 한다는 주장이 심각하게 거론될 정도였는데요. 이렇게 빠르게 AI가 발전하고 있는 상황에서 일부만 개발을 중단하는 것은 오히려 경쟁자에게 기술 우위를 넘겨줄 계기를 만들어 준다는 반발도 나오고 있습니다. 

    GPT-4, 이해력·독창성·추론력 늘었다...응답 속도는 전보다 느려

    이미지 인식 서비스는 미공개..."최종 테스트 진행 중"

    오픈AI가 초거대 멀티모달 GPT-4를 공개했다. 문자와 이미지를 이해할 수 있는 멀티모달 형태다. 오픈AI는 GPT-4 주요 특징을 ▲독창성 ▲문맥 이해도 ▲추론력 ▲멀티모달 등으로 꼽았다. 챗GPT플러스 고객은 현재 GPT-4를 이용할 수 있다. 기존 모델과 성능을 비교하기 위해 챗GPT플러스를 구독해 직접 체험했다.  

    GPT-4 답변 횟수 제한...GPT-3.5보다 속도 느려

    (사진=챗GPT플러스 화면 캡처)

    GPT-4 기본 성능을 GPT-3.5와 비교했다. 우선 사용자는 GPT-4로 대화를 무한대로 할 수 없다. 4시간에 100개씩만 질문할 수 있다. 반면 GPT-3.5로는 무제한으로 질문할 수 있다.

    현재 GPT-4는 GPT-3.5보다 답변을 느리게 준다. 응답 자체가 느리거나 답변 중 작동을 멈춘다. 이 현상은 이미 오픈AI 홈페이지에 공지로 나왔다. 오픈AI 측은 GPT-3.5 속도 점수보다 GPT-4 속도를 더 낮게 평했다. 

    GPT-4, '문학인'으로 손색 없네...독창성 늘어

     
    왼쪽이 GPT-4 결과물이고 오른쪽이 GPT-3.5 결과물 (사진=챗GPT플러스 화면 캡처)

    오픈AI는 이번 GPT 모델 창의력 성장을 재차 강조했다. 새 모델은 시뿐만 아니라 작사, 짧은 글, 문체 등에서 높은 독창성을 갖췄다는 의미다. 얼마나 성장했는지 직접 확인했다. 

    GPT-4와 GPT-3.5에 시를 작성하라고 요청했다. 주제는 '피자 먹는 공주'다. "'피자'와 '공주'를 제외하고 반복되는 단어를 사용해선 안 돼"라고 추가 요청도 했다.

     

    GPT-4는 전형적인 시를 생성했다. 시인이 활용하는 비유법, 감탄사 등을 사용했다. 요청대로 단어 반복도 최대한 피했으며 단어를 다채롭게 넣었다.

     

    GPT-3.5로 만든 시는 조금 달랐다. 형식은 시와 동일하지만 비유법, 감탄사 등을 활용하지 않았다. 동일 단어를 반복하지 말라는 요청도 GPT-4보다는 덜 반영된 듯하다. GPT-4 결과물보다는 한 편의 시라는 느낌이 덜 들었다. 

    장문도 이해 가능...문맥 파악 성장

    GPT-4는 긴 글도 한번에 읽고 문맥 파악에 능숙하다. (사진=챗GPT플러스 화면 캡처)

    오픈AI는 GPT-4가 기존보다 긴 글을 읽을 수 있고 이를 통해 문맥 파악 능력을 키웠다고 블로그에서 밝혔다. 

    기존 GPT-3.5는 영어 기준 3천 단어까지 한번에 이해한다. GPT-4는 2만5천 단어를 한번에 인식할 수 있다. 결과적으로 이해도와 문맥 인식 능력을 키웠다는 의미다.

     

    사실인지 확인할 필요가 있었다. 위키피디아에서 연예인 '송혜교'를 영어로 검색했다. 위키피디아는 송혜교를 3천개 넘는 영어 단어로 설명했다. 페이지 링크를 GPT-4에 입력한 뒤 "송혜교가 프랑스 파리에서 어떤 활동을 했는지 한국어로 설명하라"고 영어로 물었다. 

     

    GPT-4가 이에 답하려면 링크에 있는 긴 글을 이해해야 한다. 이중 송혜교가 파리에서 한 활동도 문맥 속에서 찾아야 한다. 한국어로 설명하라는 요청도 인식해야 한다. GPT-4는 송혜교 파리 활동을 글에서 찾았다. 답변도 한국어로 했다. 곧장 위키피디아에 있는 다른 내용을 물었다. 역시 요청한 대로 맞게 대답했다.

    GPT-3.5 답변 (사진=챗GPT플러스 화면 캡처)

    GPT-3.5에도 똑같은 질문을 했다. GPT-3.5는 문맥을 이해하는 것부터 틀렸다. 링크에 있는 글도 이해하지 못한 듯했다. 혹시나 하는 마음에 다시 물었다. GPT-3.5는 문맥을 잘못 파악했다. 한국어로 답해달라는 요청도 알아듣지 못했다.

    요청 세밀히 파악...문서 작성도 꼼꼼

     
    왼쪽이 GPT-4 결과물이고 오른쪽이 GPT-3.5 결과물 (사진=챗GPT플러스 화면 캡처)

    오픈AI는 GPT-4가 사용자 요청을 더 세밀히 파악할 수 있다고도 강조했다. 정말 그런지 알아봤다. 동일한 요청을 두 모델에 했다. "AI가 의료 분야에 미치는 영향에 대한 기획 기사를 작성할 거야. 기획안 만들어 줘"라고 물었다.

    GPT-4는 기획안 목차를 서론, 본론, 결론으로 나눴다. 목차는 AI 의료 기술에 대한 개념, AI 의료 서비스, 관련 분야 전망과 한계로 이뤄졌다. GPT-4는 각 세션에 넣어야 하는 구체적인 내용을 세세히 제공했다. 각 섹션에 필요한 내용도 추가로 알렸다.

     

    GPT-3.5는 제목과 소제목을 우선 생성했다. GPT-4와 마찬가지로 목차 섹션을 서론, 본론, 결론으로 만들었다. 각 섹션에 어떤 내용을 집중해서 담아야 하는지에 대한 가이드라인도 제시했다. 해당 기획안도 나쁘지 않지만, GPT-4 결과물이 더 구체적으로 느껴졌다. 실제 기획 기사를 쓸 때 어느 것을 활용할지 IT 기자 3명에게 물었다. 모두 GPT-4가 만든 기획안을 바탕으로 기사 쓰겠다고 답했다.

    문제 해결력 늘었지만...숫자 계산 여전히 실수

    (사진=챗GPT플러스 화면 캡처)
     
    계산 실수한 GPT-4. 실수를 인정하며 사과했다. (사진=챗GPT플러스 화면 캡처)

    GPT-4는 미국 변호사 시험 시뮬레이션에서 상위 10%에 해당하는 점수를 받았다. GPT-3.5 등 이전 모델은 하위 10% 점수를 기록했다. GPT-4는 미국식 수능 SAT에서 1300점(1600점 만점)을 받았고, 고등과정 생물학, 심리학, 통계학, 역사 시험 등에서 5점(5점 만점)을 받았다.

    GPT-4의 기본 계산 능력도 늘었는지 확인했다. GPT-3.5는 간단한 수학 문제를 자주 틀린 바 있다. GPT-4로 간단한 덧셈, 뺄셈을 10회 이상 진행했더니, 오류는 나오지 않았다. 문제는 곱셈과 나눗셈 계산이다. GPT-4는 처음에 문제를 곧잘 맞히다가 틀린 답을 내놨다. "계산에 실수가 있었다"고 인정했다. 

    이 외에도 오픈AI는 GPT-4가 이미지도 이해할 수 있다고 강조한 바 있다. 그러나 현재 챗GPT에서는 이미지 파일을 직접 넣어 대화할 수 없다. 현재 이미지 인식 기능은 미공개 상태다. 오픈AI는 "이 기능을 최종 테스트하는 중"이라고 밝혔다.

    지난 4월 27일 ‘IT 미래의 재현: IT 전략을 위한 여정'이라는 주제로 개최하는 ACC+ 2023 컨퍼런스에서 올해 핵심 화두로 떠오른 챗GPT와 AI에 대해 다룰 예정입니다.

    GPT-4에 대한 자세한 이야기는 영상을 통해 확인하실 수 있습니다.

     

    GPT-4는 ChatGPT로 대표되는 GPT-3.5보다 성능이 좋고 이번 발표는 MS, Nvidia와의 협력으로 만들어진 첫번쨰 프로세스라는 결과라는 점이 매우 중요하다 생각합니다.

     

    OpenAI는 “Introducing GPT-4 “를 발표해 공식적으로 GPT-4 런칭을 했습니다. 현재 GPT-4는 리서치 대상으로 API Key를 제공하고 있으며 ChatGPT Plus를 가입했으면 400개의 문장 생성이 가능합니다. 그런데 GPT-4는 단순히 ChatGPT만 업그레이드하지 않습니다. GPT-4는 코드와 텍스트를 넘어서서 사진이나 그림과 같은 이미지도 넣고 분석할 수 있습니다. 이번 블로그는 GPT의 변천과정, GPT-4의 성능을 볼 예정이며 마지막으로 OpenAI가 GPT-4를 어떻게 이용할 수 있는지 알아볼 예정입니다.

    GPT 시리즈의 변천과정

    GPT라는 개념이 처음 나온 연도는 2018년입니다. 2017년에 구글은 Attention Is All You Need라는 논문으로 Transformer라는 개념을 선보였습니다. Transformer는 문장의 컨텍스트를 이해하는 인코더와 컨텍스트 바탕으로 문장을 생성해 번역하는 디코더로 이루어져 있습니다. 그중에서 OpenAI는 Transformer의 문장을 생성하는 디코더에 주목해 Improving Language Understanding by Generative Pre-training이라는 논문이 나왔고 해당 모델을 GPT라고 불렀습니다.

    GPT는 처음으로 모델을 만들 때 쓰는 데이터의 특성을 나타내는 라벨이 없는 데이터를 먼저 학습시키고 추후에 라벨이 붙은 데이터를 학습을 시킴으로써 라벨이 필요없는 데이터를 학습시키는 방식도 유효하다는 것을 입증했습니다. 물론 GPT의 세상이 그리 오래가지 못했습니다. 왜냐면 GPT 이후에 구글에서 BERT라는 모델을 발표했고 성능에서 압도해버렸기 때문입니다.

     

    2019년에 OpenAI는 “Language Models are Unsupervised Multitask Learners”라는 논문을 통해 GPT-2를 발표했습니다. GPT-2는 수백만개의 웹사이트를 기반으로 만든 OpenAI 자체 데이터셋인 WebText로 학습을 진행했고 task에 맞춰 미세조정을 했던 방식이 아닌 조정없이 task를 수행하는 모델입니다. 이때 OpenAI는 품질이 괜찮은 대용량 데이터를 학습을 잘 시키기만 하면 어떤 task에 상관없이 수행가능하다는걸 알았다고 생각합니다. GPT-2는 사람들에게 많이 회자되긴 했으나 기업이나 대학은 BERT에 대한 연구를 많이 진행하고 있던 터라 이후 말씀드릴 GPT-3나 GPT-4에 비하면 파급력이 약했다고 생각합니다.

     

    2020년 5월에 OpenAI는 “Language Models are Few-Shot Learners”라는 논문을 발표하고 GPT-3를 발표했습니다. GPT-3는 출시되자마자 사회적으로 그리고 업계에서 많은 충격을 주었습니다. GPT-3는 기존에 진행했던 사전학습-미세조정이라는 공식을 깨부수고 in-context learning이라는 메타 러닝을 사용해 프롬프트만으로 task를 수행하는걸 보여주었습니다. 특히 이전에는 미지의 영역이라 불렸던 문장을 생성하는 측면에서 GPT-3는 기존에 있던 모델들과 비교를 할 수 없을 정도로 압도적인 수준을 보여주었습니다. 모델의 측면에서 GPT-3와 GPT-2의 차이점은 학습시키는 데이터 크기와 모델의 크기가 전부 커졌으며 데이터의 정제에 많은 힘을 쏟았습니다.

     

    사실 GPT-3는 학습 방식에 혁명을 불러일으켰지만 다른 부분에서는 충격을 주었습니다. 기존 AI 산업계는 논문과 코드를 오픈하는 것을 원칙으로 했지만 GPT-3는 논문을 공개했지만 코드와 모델을 공개하지 않았습니다. 어찌보면 GPT-3의 논문은 대략적인 학습방법론과 결과를 작성했지만 이를 뒷받침할만한 근거는 내부에 존재하지만 외부에서는 확인할 수 없게 되었습니다. 이때부터 OpenAI는 점점 모델을 공개하지 않는 방식으로 진화하게 되었으며 이에 대항하기 위해 개발자들은 OpenAI에 대항하는 커뮤니티로 EleutherAI를 만들었습니다.

    GPT-4는 어떤 모델인가?

    GPT3.5와 GPT-4에서 사용하는 RLHF기법

     

    GPT-4를 알기 위해서는 ChatGPT에 들어간 GPT-3.5를 알고 가야 합니다. GPT-3.5는 GPT-3의 학습방식을 그대로 차용했으나 RLHF라는 기법을 추가로 도입했습니다. RLHF는 Reinforcement Learning from Human Feedback이라는 기법으로 사람이 직접 피드백을 주는 방식으로 언어모델을 최적화하는 기법입니다. 모델 기법에 대해서도해당 기법이 도입되면서 모델의 성능이 올라갔고 이를 ChatGPT라는 형식으로 OpenAI가 선보였습니다.

     

    GPT-3.5는 모델 기법만큼 혁명적으로 바뀐 계기는 마이크로소프트(MS)와의 협업이었습니다. OpenAI는 이미 MS와의 협업을 2년전부터 진행했으며 MS는 OpenAI에게 Azure로 GPU를 공급했습니다. OpenAI와 MS의 협업 프로세스가 만들어졌고 이 협업 프로세스가 잘 돌아갔는지에 대한 실험으로 GPT-3.5가 나왔습니다. 실험이 끝나고 OpenAI는 본격적으로 GPT-4를 훈련시키기 시작했고 안정적으로 실험이 되었으며 훈련 성능을 미리 예측할 수 있었다고 합니다. 거대 규모의 언어모델을 학습할때 훈련 성능을 예측가능한 건 이번 GPT-4가 최초입니다.

     

    GPT-4의 경우 GPT-3.5와 다른 점은 멀티모달이 지원된다는 점과 많은 글자수 추론입니다. 기존 GPT-X들의 경우 언어(자연어와 프로그래밍 언어)밖에 처리하지 못했습니다. 이번 GPT-4는 언어뿐만 아니라 그림을 분석하는 것까지 확장되었습니다. 또한 GPT-4는 표를 만들어서 출력하는 방식까지 제공하고 있습니다. 또한 GPT-4는 32,768개의 토큰을 받을 수 있으며 50페이지가 넘는 텍스트를 읽고 추론이 가능합니다. 현재 몇몇 기능들은 ChatGPT에서는 사용하지 못하고 추후 GPT-4 API를 사용할 수 있습니다.

    성능지표 살펴보기

    OpenAI는 GPT-4를 공개하면서 성능지표를 논문으로 공개했습니다. 해당 논문의 제목은 GPT-4 Technical Report로 순수하게 GPT-4에 대한 성능에만 국한되어 있으며 부록으로 GPT-4 System Card로 간략하게 GPT-4에 대한 안전장치에 대해 작성되어 있습니다. 그렇다면 성능을 한번 보도록 하겠습니다.

    해당 지표는 학계에서 주로 사용하고 있는 벤치마크 기준으로 만들어져 있습니다. 좌측 순서대로 GPT-4, GPT-3.5, LM SOTA(기존에 가장 성능이 좋은 모델), SOTA(벤치마크에 특화해서 만든 모델)입니다. 해당 비교표를 보았을때 읽기 추론적인 쪽을 제외하고는 다른 것과 비교할 수 없을 정도로 좋다는걸 확인할 수 있습니다. 심지어 해당 벤치마크에 특화된 모델조차도 GPT-4를 이기기에는 역부족이었다는 사실을 알 수 있습니다.

    이 지표는 위에 있는 MMLU 지표를 세분화해서 분석한 지표입니다. MMLU는 Multi-task Language Understaing이라는 벤치마크 데이터셋으로 다양한 언어와 다양한 task를 동시에 보는 벤치마크입니다. 해당 지표를 확인해보면 GPT-4를 3개의 예시를 들어 설명하고 정확도를 측정하고 한국어로 문제 낸 정확도가 미세조정까지 한 구글에서 만든 PaLM의 영어 평가보다 높은걸 확인할 수 있습니다.

    마지막으로 실험결과를 확인하면 GPT-4는 GPT-3.5와 비교했을때 압도적인 성적을 내는걸 확인할 수 있으며 AP나 SAT, GRE에서도 성능이 매우 좋다는걸 확인할 수 있습니다. 또한 수학에서도 두각을 보이는것까지 확인 가능합니다.

    이번 발표로 확인할 수 있는 OpenAI의 예상되는 행보

    OpenAI가 성능으로 GPT-4로 보여준 부분도 있지만 저는 MS와의 협력을 보여준 첫번째 사례라는 점이 제일 크다고 생각합니다. 현재 MS는 엔비디아(NVIDIA)와의 협력관계를 맺고 있으며 최신 딥러닝 전용 GPU인 H100을 제공받아 데이터센터를 짓고 있습니다. 불과 몇일 전에 Azure는 H100 VM을 공개했습니다. 이에 비해 딥러닝으로 특화되어 있다고 평가받는 Google Cloud는 감감무소식입니다. 즉 현재 OpenAI-MS-NVIDIA가 협력체제를 구축해 Google을 압박하고 있는 모양새입니다.

    OpenAI는 협력체제를 이용해 지속적으로 거대 모델들을 매우 효율적으로 나올 가능성이 높아졌습니다. 다만 OpenAI는 새로운 모델들에 대한 정보가 갈수록 줄어들고 있습니다. GPT-3 때 코드가 공개되지 않자 많은 비판이 있었는데 이제는 코드가 아니라 모델 자체 정보를 얻는 것이 추론을 통해서만 얻을 수 있습니다. 개인적인 생각으로 인공지능이 빠르게 발전한 이유는 오픈소스 생태계라고 생각합니다. OpenAI가 인공지능 생태계에 주도권을 잡고 움직인다면 다른 빅테크 기업 뿐만 아니라 스타트업들도 오픈소스 생태계 대신에 정보를 숨기는 방향으로 갈 것입니다. 그렇게 된다면 OpenAI가 지금은 앞서나갈 수 있지만 점점 인공지능 발전 속도가 늦어질 거라 생각합니다.

     

    OpenAI뿐만 아니라 다른 회사들이 챗봇에 대해 어떻게 반응하고 있는지 궁금하다면 여기를 눌러주세요.

    레퍼런스

    1. https://openai.com/product/gpt-4
    2. https://openai.com/research/gpt-4
    3. GPT-1 논문
    4. GPT-2 논문
    5. GPT-3 논문
    6. GPT-4 Technical Report
    7. https://huggingface.co/blog/rlhf

    [분석지능팀]

    작년 연말 갑작스럽게 등장한 ChatGPT 이후로 GPT-4에 대한 여러 소문이 있었습니다. 그리고 저번 주에 ‘곧 공개될 거야!’라는 뉴스[1]가 나왔을 때도 반신반의했습니다. 물론 ‘지금까지의 OpenAI와 MS의 속도로 보면 정말일지도’라고 기대감도 높았어요. 그런데 실제로 오늘 GPT-4가 공개되었습니다[2]. 어제 있었던 구글의 AI 관련 발표[3]도 대단했는데 그냥 아예 묻혀버렸네요. 심지어 구글과 달리 GPT-4는 부분적으로 써볼 수 있습니다. 

     

    루머는 여러 가지였습니다. 멀티모달이다, 크기가 어마어마하게 더 커졌다. 튜링 테스트를 통과했다. 등등. 일단 멀티모달인 것은 맞았습니다. 그리고 여러 가지 벤치마크에서 GPT-3와 비교해서 더 높은 수준을 보여주고 있습니다. 미국의 몇 가지 인간용 시험들에서 인간에 가깝거나 그 이상의 성적을 보이는 결과도 나왔습니다. 자세한 내용은 리포트[4]와 비디오[5], 공식 블로그[2]를 직접 보시기를 추천해 드립니다. 

     

    GPT-4의 등장에 대해, 알파고 쇼크에 비견될만한 변화를 가져올 거라고 여러 업계와 연구자들이 기대와 호기심, 어쩌면 불안감을 가지고 바라보고 있습니다. 물론 지금 좀 분위기가 격앙된 경향이 있지만 알파고와 마찬가지로 그 후 여러 AI 연구/산업 생태계가 어떻게 변화했는지 떠올려봅시다. 데이터와 컴퓨팅 연산을 많이 쓰는 것을 당연하게 여기게 되었고, 이를 관리/처리하는 것에 대한 인프라와 인력에 대한 투자를 많이 했습니다. 

     

    그러면 GPT-4 이후로는 어떤 일이 일어날 것인가? 일단 GPT-4가 대변하는, 돈 많이 들고 중앙 집중적으로 관리되며 API를 통해 부분적으로만 공개되는 ‘제품이 되어버린 지능’은 점점 그 영향력을 키워갈 가능성이 높습니다. 그래서 이번 GPT-4의 발표에서의 연구자료들은 연구 논문보다는 제품 설명서에 가깝게 보입니다. 

     

    그리고 다른 획기적인 방법론이 등장하기 전까지는 거대 모델을 프름프트나 인스트럭션 등을 사용하여 데이터 효율적인 방식으로 다루는 방식이 점점 발전하고 이를 통해 빠르게 제품과 서비스에 통합하는 영역이 커질 것 같습니다. 

    또한 이와 한편으로는 이에 대응하여 오픈소스로 거대 모델들을 따라가려는 쪽도 계속해서 등장하겠죠. 실제로 ChatGPT 공개 이후로 여러 가지 공식/비공식적으로 오픈소스 버전들이 숨 가쁘게 나오고 있습니다.

     

    그리고 전통적인 스몰/미디엄 모델들을 직접 학습시켜가며 부분별 특화 문제들을 푸는 식으로 대응할 수도 있습니다. 

    즉 1) 최고 성능의 모델들은 점점 공개되지 않을 것입니다. 2) 이 최고 모델들보다 한 세대 정도 느리게 따라가는 오픈소스들이 열심히 등장할 것입니다. 3) 1과 2가 하기엔 너무 협소한 문제들에 대해 보조적으로 작은 모델들을 직접 운영할 수도 있습니다. 물론 3의 경우도 데이터가 충분해야 하기에 모두가 할 수 있는 것은 아닙니다. 셋 다 트레이드 오프가 있기 때문에 이 중 어떤 것을 선택할지 전략적 스위칭이 가능합니다. 다만  AI 엔지니어링 역량이 높고 데이터 거번넌스가 탄탄하게 구축되어 있는 조직이어야 하겠죠. 

     

    점점 AI가 현실로 나오고 있습니다. 물론 꼭 이런 형태였을 필연적 이유는 없었을지도 모릅니다. 미래는 다른 방식일 수 있습니다. 그래도 당분간은, 하늘에서 땅으로 뻗어 내린 거대한 파이프라인을 타고 ‘말’의 형태로 현현하여 다양한 화신들로 태어나는 것을 우리는 목격하게 될 것입니다.

     

    (* 위 글은 GPT-4로 작성되지 않았습니다)

     

    (GPT-4에게 아래와 같이 물어보았습니다)

    나 : 저 위의 글에서 다섯 개의 주요 문장 뽑아줘.

    GPT-4 :

    1. GPT-4의 등장은 AI 업계에 큰 파장을 일으키고 있습니다.
    2. 멀티모달 모델로서, 이전보다 향상된 성능과 높은 표준을 보여주고 있습니다.
    3. 돈이 많이 들고 중앙 집중적으로 관리되며 API를 통해 부분적으로만 공개되는 ‘제품이 된 지능’의 영향력이 증가할 것입니다.
    4. 거대 모델에 프롬프트나 인스트럭션 등을 통한 데이터 효율적인 방식으로 빠르게 제품과 서비스에 통합하는 영역이 확장될 것입니다.
    5. AI 엔지니어링 역량이 높고 데이터 거버넌스가 탄탄한 조직에서 이러한 변화를 전략적으로 스위칭하며 다양한 방식으로 활용할 수 있을 것입니다.

    (GPT-4에게 다시 아래와 같이 요청하였습니다)

    나: “GPT-4라는 이름의 유령”이라는 제목으로 글 써줘. 요지는 아래와 같아. 번호 붙이지 말고 자연스럽게 써줘. 전부 존댓말로.

    1. GPT-4의 등장은 AI 업계에 큰 파장을 일으키고 있습니다.
    2. 멀티모달 모델로서, 이전보다 향상된 성능과 높은 표준을 보여주고 있습니다.
    3. 돈이 많이 들고 중앙 집중적으로 관리되며 API를 통해 부분적으로만 공개되는 ‘제품이 된 지능’의 영향력이 증가할 것입니다.
    4. 거대 모델에 프롬프트나 인스트럭션 등을 통한 데이터 효율적인 방식으로 빠르게 제품과 서비스에 통합하는 영역이 확장될 것입니다.
    5. AI 엔지니어링 역량이 높고 데이터 거버넌스가 탄탄한 조직에서 이러한 변화를 전략적으로 스위칭하며 다양한 방식으로 활용할 수 있을 것입니다.

    GPT-4:

    요즘 인공지능 업계의 주목받는 주인공은 바로 GPT-4입니다. 전 세계적으로 많은 분들이 이 ‘유령’을 두려워하시거나, 호기심으로 관심을 갖기 시작했습니다. GPT-4는 이전보다 더 강력한 성능을 자랑하는 멀티모달 모델로, AI 업계에서 큰 변화를 불러올 것으로 예상됩니다. 이 글에서는 GPT-4가 미래 AI 업계에 어떤 영향을 미칠지 살펴봅니다.

    GPT-4의 등장은 AI 업계에 큰 파장을 일으키고 있습니다. 이전 세대의 모델들과 비교하여 놀라운 성능 향상을 보여주면서, 많은 기업들이 이 모델을 활용한 다양한 서비스를 개발하고자 노력하고 있습니다. 멀티모달 모델로서, 이미지, 텍스트, 음성 등 다양한 데이터 형태를 처리할 수 있는 GPT-4는 이전 세대의 AI 모델보다 더 넓은 영역에서 활용 가능성을 보여주며, 높은 표준을 세우고 있습니다.

    그러나 GPT-4의 개발과 유지 비용이 매우 높기 때문에, 중앙 집중적으로 관리되며 API를 통해 부분적으로만 공개됩니다. 이로 인해 자금이 많이 들고 제한적으로 접근 가능한 ‘제품이 된 지능’의 영향력이 증가할 것으로 보입니다.

    거대 모델인 GPT-4는 프롬프트나 인스트럭션 등을 통해 데이터를 효율적으로 처리할 수 있습니다. 이를 활용해 기업들은 빠르게 제품과 서비스에 통합하는 영역이 확장되며, 다양한 형태의 가치 창출이 가능해질 것입니다.

    GPT-4를 효과적으로 활용하기 위해서는 AI 엔지니어링 역량과 데이터 거버넌스가 탄탄한 조직에서 이러한 변화를 전략적으로 스위칭하며 다양한 방식으로 활용할 수 있어야 합니다. 이를 통해 기업들은 GPT-4의 강력한 성능을 최대한 활용하며, 지속적인 혁신과 시장 선도를 이룰 수 있을 것입니다.

     

    AI 기술로 3D 모델링을 빛나게 하는 비밀 (ChatGPT x Blender)

    [뉴미디어 서비스팀 윤형진 책임]

     

    본 포스팅에서는 ChatGPT와 DreamTexture를 활용하여 3D 모델링과 텍스쳐 생성을 어떻게 할 수 있는지에 대해 설명하고, 이 기술의 가능성과 한계점에 대해 이야기해보겠습니다.

    1. ChatGPT로 생성한 파이썬 코드로 3D 모델링하기

    ChatGPT는 OpenAI에서 개발한 언어모델로, 적은 양의 데이터로도 효과적인 자연어 처리를 가능하게 합니다.

    이러한 ChatGPT를 이용하여 Blender 에서 지원하는 파이썬 스크립팅으로 3D 모델링을 할 수 있습니다.

    우선, ChatGPT 모델을 학습시켜 파이썬 코드를 생성합니다.

    이 코드는 3D 모델링을 할 때 사용되는 파이썬 코드와 매우 유사합니다.

    예를 들어, ChatGPT 모델을 이용하여 자동차 모델을 생성하고 싶다면 다음과 같은 코드를 생성할 수 있습니다.

    위 코드는 자동차 모델을 생성하는 코드입니다. 이 코드를 실행하면, 3D 모델링 소프트웨어인 Blender에서 자동차 모델이 생성됩니다.

    [그림1] ChatGPT 로 생성한 자동차 모델

    하지만, ChatGPT로 생성한 코드는 항상 완벽하지는 않습니다. 때로는 잘못된 코드를 생성하기도 하며, 일부 기능을 구현하지 못할 수도 있습니다.

    따라서 ChatGPT와 많은 대화를 통하여 생성된 코드를 검토하고 수정해야 합니다.

     

    2. DreamTexture로 Texture 생성하기

    Texture는 3D 모델링에서 가장 중요한 요소 중 하나입니다. DreamTexture는 Stable-Diffusion 기술을 이용하여 Texture를 생성하는 Blender Add-on입니다.

    Stable-Diffusion은 AI 기술 중 하나로, 이미지 생성 및 텍스쳐 생성에 적용됩니다.

    DreamTexture는 이 기술을 이용하여 높은 퀄리티의 텍스쳐를 생성할 수 있습니다.

    DreamTexture는 Blender의 노드 기반 시스템을 이용하여 텍스쳐를 생성합니다. 노드 기반 시스템은 다양한 노드를 조합하여 텍스쳐를 생성하는 방식으로, 매우 유연하고 다양한 텍스쳐를 만들 수 있습니다. DreamTexture는 이러한 노드 기반 시스템을 이용하여 AI 기술로 생성된 이미지를 텍스쳐로 변환합니다.

    예를 들어, DreamTexture를 이용하여 의자의 텍스쳐를 생성하고 싶다면, 다음과 같은 과정을 거칩니다.

    1. ChatGPT를 이용하여 의자의 모델링을 구성합니다.
    [그림2] ChatGPT로 생성한 의자

    2. DreamTexture를 이용하여 AI 기술로 생성된 나무 이미지를 노드 기반 시스템에 적용합니다.

    3. 노드 기반 시스템의 다양한 조합을 통해 나무의 텍스쳐를 생성합니다.

    [그림3] DreamTexture를 통해 Projection Texture 가 적용된 결과물.

    이렇게 생성된 텍스쳐는 3D 모델링 소프트웨어인 Blender에서 적용할 수 있습니다.

    3. 활용 방안

    FPS 게임에서 총기는 가장 중요한 콘텐츠로서, 다양한 커스터 마이징의 니즈가 있습니다. 같은 총기라도 다른 컨셉의 스킨들을 생성해야 할 필요가 있습니다.

    그래서 여기 DreamTexture 를 활용해 총기의 스킨을 만들어 낼 수 있습니다.

    [그림 4] 텍스쳐가 없는 총기에 스킨을 입힌 모습.

    4. 결론

    AI 기술을 이용하여 3D 모델링을 한다는 것은 매우 흥미로운 분야입니다.

    ChatGPT와 DreamTexture를 이용하면, 파이썬 코드를 자동으로 생성하거나, 높은 퀄리티의 텍스쳐를 생성할 수 있습니다.

    하지만, 이러한 기술에는 여전히 한계가 있습니다. 생성된 모델의 퀄리티는 AI 모델의 성능과 입력 데이터의 퀄리티에 크게 영향을 받습니다.

    기술적인 한계점을 인식하고 컨텐츠를 어떻게 활용할까 고민한다면, 총기의 스킨을 만든다던지 하는 AI기술을 활용한 좋은 사례가 많이 나올 것입니다.

    * 본 포스트는 ChatGPT 로 생성되었습니다.

     


     

    반응형
    LIST
Designed by Tistory.