All in One AI 데이터 솔루션 All in One
AI DATA SOLUTION-
SELECTSTAR |
|
|
Chain of Thought
ChatGPT의 등장 이후 누구나 AI를 쉽게 활용할 수 있는 AI 대중화가 시작되었는데요. 이제는 누가 AI를 더 잘 만드냐보다도, 누가 더 잘 활용하느냐가 중요해지고 있습니다. ChatGPT의 무궁무진한 잠재력이 알려지면서 어떻게 최대한 활용할 수 있을지 같이 연구되고 있습니다.
그 기술 중 하나가 ‘프롬프트 엔지니어링(Prompt Engineering)’입니다. 프롬프트란, 쉽게 말해서 기계에게 내리는 명령어입니다. 즉, 프롬프트 엔지니어링은 챗봇에게 어떻게 질문해야 우리가 원하는 결과를 얻을 수 있을지 연구하고 설계하는 과정이라고 볼 수 있습니다. 최근에 급부상하고 있는 용어라 신조어가 아닌가 싶지만, 사실 연구자들은 이미 대규모 언어 모델(Large Language Model, LLM)이 발달하는 과정에서 언어 추론 능력을 극대화할 수 있는 방법을 연구해왔습니다. 그리고 가장 널리 알려진 방법 중에 하나가 바로 ‘Chain of Thought(연쇄 사고)’입니다. 이번호에서는 이 Chain of Thought의 특징을 알아보도록 하겠습니다.
GPT-3 방식과는 다르다
Chain-of-Thought은 Google Brain 팀에서 2022년 1월 공개한 연구입니다. 당시에는 GPT-3 방식의 프롬프팅이 가장 일반적이었는데요. 질문에 해당하는 예시, 즉 입력-출력 쌍(질문과 답변)을 같이 제공하여 추론하도록 요청하는 것입니다. 하지만 Chain-of-Thought 방식은 이름에서 알 수 있듯이 연쇄적인 사고 과정을 제시합니다. 그럼 논문에서 제시한 예시를 통해 비교해보도록 하겠습니다.
|
|
|
기존 GPT-3 프롬프팅의 예시
(Model Input)
Q: 로저는 테니스공을 5개 가지고 있습니다. 그는 2개의 테니스공 캔을 더 삽니다. 각 캔마다 3개의 테니스 공이 들어 있습니다. 이제 그는 몇 개의 테니스공을 가지고 있나요?
A: 정답은 11입니다.
Q: 식당에는 23개의 사과가 있었습니다. 점심을 만들기 위해 20개를 사용하고 6개를 더 샀습니다. 그들에게 남은 사과는 몇개입니까?
(Model Output)
정답은 27입니다. ❌
Chain of Throught 프롬프팅의 예시
(Model Input)
Q: 로저는 테니스공을 5개 가지고 있습니다. 그는 2개의 테니스공 캔을 더 삽니다. 각 캔마다 3개의 테니스 공이 들어 있습니다. 이제 그는 몇 개의 테니스공을 가지고 있나요? (상동)
A: 로저는 5개의 공으로 시작했습니다. 3개의 테니스 공이 든 캔 2개는 총 6개의 테니스 공입니다. 5개의 공에 6개를 더하면 11개가 됩니다. 답은 11입니다.
Q:
식당에는 23개의 사과가 있었습니다. 점심을 만들기 위해 20개를 사용하고 6개를 더 샀습니다. 그들에게 남은 사과는 몇개입니까? (상동)
(Model Output)
식당에는 원래 23개의 사과가 있었습니다. 점심을 만드는데 20개를 사용했습니다. 그래서 23-20=3. 사과 6개를 더 샀으니 3+6=9. 정답은 9개입니다. ⭕
|
|
|
정말 사소한 차이인 것 같은데, 추론하는 사고 과정을 제시해주니 훨씬 더 상세하고 정확하게 알려줍니다. 때문에 주로 산술 추론, 상식 추론, 기호 추론 등에서 큰 효과를 보입니다. 이런 문제의 특징은 어떻게 그러한 결과가 도출되었는지 설명해주는 전개 과정이 중요하다는 것입니다. 이런 관점에서 연구진이 제시한 Chain-of-Thought의 장점을 살펴보면 다음과 같습니다. |
|
|
- Chain-of-Thought을 통해 문제를 세분화된 중간 단계로 분해할 수 있습니다. 우리가 원하는 만큼 추론 과정을 더 상세하게 기술할수록, 더 정교한 추론 과정을 출력할 것입니다.
- 모델의 결과가 어떻게 추론되는지 해석이 가능합니다. 만약 올바르지 않은 추론 결과를 냈다면, 어느 단계에서 잘못된 추론을 했는지 살펴볼 수 있습니다.
- 언어를 통해 할 수 있는 모든 추론 작업에 확대 적용이 가능합니다.
- 이미 만들어진 언어모델에 새로운 학습 과정 없이도, 프롬프트에 Chain-of-Thought을 추가하는 것만으로 성능을 향상시킬 수 있습니다.
|
|
|
그렇다면 효과는?
성능은 얼마나 개선될까요? 산술 추론 데이터셋(GSM8K)에 대해서 가장 큰 PaLM 모델에 Chain-of-Thought 프롬프팅 방법을 적용하여 무려 17.9%에서 58.6%까지 성능을 끌어올렸습니다. GPT-3에서도 15.6%에서 49.6%로 약 3배 가까이 개선되었습니다. 산술 추론 데이터는 다른 종류의 문제에 비해 조금 더 복잡한 구조를 가지고 있어 더욱 효과적으로 나타난 것입니다. 한편, 단순한 사고 단계만으로도 추론이 가능한 경우에는 성능 개선 효과가 크지 않았습니다.
흥미로운 것은 Chain-of-Thought 프롬프팅 방식을 적용한 것이 GPT-3의 미세 조정 학습(Fine-tuning)보다 좋은 성능을 보였다는 것입니다. 시간과 비용을 들여 추가적인 학습을 진행하는 것보다, 질문을 더욱 정교하게 하는 것이 효과적일 수 있다는 것을 의미합니다.
그렇다면 왜 성능이 잘 나오는 것일까요? 연구진에 따르면, 사고 과정을 설명하는 것이 사전 훈련(Pre-trained) 중 획득한 지식을 활성화하고 추론에 필요한 관련 지식에 접근할 수 있는 가능성을 높입니다. 쉽게 말하면 추론에 필요한 정보가 더 주어지기 때문에, 사전 훈련 중 관련된 부분을 참고할 수 있는 폭이 넓어진다는 것입니다.
하지만 정말로 언어 모델이 ‘추론’을 하는지에 대해서는 여전히 알 수 없습니다. 단순히 형식을 베끼고 앞서 말한 것처럼 정보에 더 많이 접근해서 결과가 더 잘나오는 것일 수도 있고요. 안타깝게도 아직 규모가 작은 언어 모델에서는 결과가 잘 나오지 않는다는 한계도 존재합니다.
Chain-of-Thought 방식이 시사하는 바가 크다고 생각합니다.
사실, 사람과 대화를 할 때도 상대방이 당연히 알 것이라고 가정하면 잘못된 대화가 오가기도 합니다. 똑같은 의미라도 ‘나는 이런 경험이 있고, 그래서 이렇게 생각한다.’처럼 친절한 문장 하나를 더 추가하면 상대방도 그 맥락을 쉽게 이해할 수 있고 더 좋은 대화가 오갈 수 있습니다. 본인의 생각도 더욱 정교화할 수 있고요. 정말 "가는 말이 고우면, 오는 말도 곱다"는 속담이나 "좋은 질문에 좋은 해답이 따른다"는 격언이 AI에도 딱 맞아 떨어지지 않나 싶습니다. |
|
|
셀렉트스타가 AI EXPO KOREA 2023에 참가합니다
5월10~12일 코엑스 INTELLIGENCE 관 앞,
F42번 Booth로 찾아오세요!
박람회 홍보물을 모두 담아갈 수 있는
박람회 인싸템,
셀렉트스타 가방을 비롯,
다양한 굿즈를 드립니다! |
|
|
정부, 클라우드 바우처 지원
클라우드 바우처란,
AI 솔루션 적용이 필요한 기업에게 기업별 환경을 고려한 도입 컨설팅 및 클라우드 전환(데이터이관, 교육비), 서비스 이용료(바우처) 등 바우처 형식으로 "최대 약 1,550만원"을 지원하는 정부 사업입니다.
|
|
|
5월, AI NODAJI는
AiFrenz와 함께
대전에서 개최됩니다
5월 24일 예정이며
자세한 사항은
다음 뉴스레터에
고지하겠습니다.
대전 지역 여러분의
많은 관심과 참석
기대합니다!
#AI노다지 #셀렉트스타 #AiFrenz #AI네트워킹파티 |
|
|
AI 관심있는 누구나! 와서 노다지를 캐가세요!
- 직군, 나이에 상관없이 참여할 수 있는 오픈 모임입니다.
- AI와 AI 도입, AI 비즈니스, 사업개발에 대한 다양한 프로그램을 운영하고 있는 AI 중심의 커뮤니티입니다.
- 신사업팀, 사업개발팀, 변화혁신팀 등 회사 내에서 Digital Transformation을 위해 AI 도입을 고민하는 분들이 모여있는 곳입니다.
- 최신 정보와 기술, 작업 노하우, AI 모델 개발을 위한 플랫폼 서치, 전략 등에 대한 고민, 질문, 다양한 경험 등을 자유롭게 나누고 자기만의 값진 노다지를 캐가십시오!
|
|
|
데이터바우처 접수하셨죠?
이제 받으신 견적들을 비교해보십시오
그리고 혜택이 더 큰 업체를 선택하십시오
- 타견적대비 더많이 해드리는 건 기본
- 최대 USD10,000 상당의 AWS 크레딧 지원
- 모든 고객사에게 1:1 AI 멘토링 지원
- 업계 최고 투자자들의 '투자 검토' 기회 부여
- VC, 법률, 특허보호관련 특강 참석 기회
|
|
|
Weekly AI Issues → →
‘AI 대부’ 제프리 힌튼, 구글에 사표냈다
인공지능계 4대 석학 중 한 명인 제프리 힌튼 교수가 지난 10년 동안 몸담아왔던 구글에 사표를 냈습니다. 결별 이유는 AI의 위험성 때문이라고 했는데요. 인공 신경망을 제안했던, 자신이 평생 이룬 성과가 후회스럽다고 밝히기도 했습니다.
‘GPT’에 상표권 행사 시작한 OpenAI
ChatGPT를 개발한 OpenAI에서 브랜드 가이드라인을 제시했습니다. API를 사용해 제품을 개발하는 경우라도 GPT, OpenAI, ChatGPT 등의 단어를 붙이지 말 것을 권고했다고 하는데요. 대신에 협업을 의미하는 ‘powered by GPT-4’와 같은 대체 표현을 활용하라고 제시했습니다. IT 업계는 오픈AI가 상표권 행사를 시작으로 본격적인 수익 창출에 나설 것으로 전망하고 있습니다.
이탈리아, ChatGPT 사용 금지 해제
지난달 유럽 개인정보보호법 위반의 가능성을 이유로 ChatGPT를 차단했던 이탈리아가 지난 28일 다시 사용 금지를 해제했습니다.
앞으로 5년간 일자리 2600만 개 사라진다
세계경제포럼(WEF)에서 향후 5년간 AI 기술로 인해 글로벌 고용시장이 요동칠 수 있다고 경고했습니다. 기존 일자리의 약 25%가 AI와 디지털화 등의 요인으로 변화가 있을 것이라고 전망했습니다. |
|
|
*본 콘텐츠는 deep daiv. 와의 제휴로 구성 되었습니다.
|
|
|
|
|