chatGPT 소개 + 공부 방법 예시
오늘 아침 chatGPT (GPT-3.5)의 최신형 모델인 GPT-4.0이 출시했다.
GPT-4.0 개발사인 OpenAI 블로그 포스트를 살펴보면,
https://openai.com/product/gpt-4
GPT-4.0은 단순히 성능이 나아진 것뿐만 아니라,
이제는 이미지를 인식하고 입력할 수 있을 뿐더러
사이트에 대한 링크를 제공하면 웹사이트의 내용을 요약할 수 있다.
위 두가지 task는 기존 NLP (자연어처리 – 인공지능의 한 분야)로
얼마든지 할 수 있었던 작업이긴 하지만,
chatGPT라는 아주 무거운 모델에 메모리 부하 없이 해당 기능을 추가했다는 점에서
아직 인공지능이라는 방대한 영역에 한 발자국 담근 학부생 입장에서
이러한 혁신을 일궈낸 openAI 개발자들이 정말 대단하다고 생각한다.
이번 글에서는 chatGPT에 대해서 간단하게 설명하고
chatGPT를 활용해 공부에 도움받는 방법을 소개하고자 한다
직접 해보면 어떻게 쓰는지 빠르게 감을 잡을 수 있으니까
웹사이트에 들어가서 일단 시도해보자.
기존 chatGPT 모델 (gpt-3.5)는 무료고
성능이 좋은 GPT-4.0 은 한달에 20달러다.
처음부터 인공지능이 이렇게 똑똑한 건 아니었다
인공지능 기준으로 18년도는 아주 오래 전이지만
불과 5년 전만해도 AI는 우가우가 침팬지만도 못한 성능을 보였다
수능은 5지선다고 하나의 숫자로 답을 밀기만 해도 최소 20점은 확보하니까
4번으로 답을 몰아 쓴 침팬지만도 못한 것이 자연어처리 AI의 현실이었다.
사실 chatGPT의 근간이 되는 기술은 이 때 수능을 푸는 AI와 거의 동일하다.
하지만 어느 점을 보완했기에 이렇게 엄청난 발전을 이룰 수 있었을까?
그 원인은 바로 이 멍청한 학생에게 아주 뛰어난 과외 선생님을 붙여줬기 때문이다.
알파고의 학습방법이기도 한 강화학습 (Reinforecement Learning)은
우리 침팬지가 오답을 내더라도, 답변에 대한 보상 (Reward)을 정의하고
이 보상을 최대화하는 방향으로 수백 번 모델을 훈련시켜서
각 훈련마다 조금씩 정답에 가까워지도록 공부시키는 AI계의 일타강사라고 할 수 있다.
chatGPT도 이와 같이 매 판마다 오차를 줄이고 정확도를 높여가면서
결국에는 이렇게 뛰어난 학습모델이 된 것이다.
그러면 우리는 이 프로그램을 사용해서 어떻게 공부에 도움을 받을 수 있을까?
대학생들은 이미 과제를 푸는 데에 있어 많이 사용하고 있을 거라 생각해서
수능 영어문제 풀이를 예시를 들어 설명하겠다.
이 문제는 작년 2023년 수능 영어 32번 문제다.
정말 당연한 듯이 정답을 맞추었지만, 이 해설을 가지고 공부하기에는 답변이 많이 빈약하다.
그래서 우리가 진짜 원하는 답변을 받으려면
선생님 혹은 과외선생님한테 질문하는 것처럼 조금 더 자세한 해설을 요구해야 한다.
설명을 요구하니까 조리 있게 잘 설명한 것 같긴 하다.
하지만 나는 영어 문단을 처음부터 독해하는 것부터 막히는 실력이라,
문단 내용을 잘 모르기 때문에 이 설명도 잘 이해가 되지 않아서 처음부터 독해하는 해설이 필요하다.
그래서 문장 단위로 해석하라고 지시해서 나온 내용이다.
그런데 영어 문단 해석에서 문법이 중요한 역할을 하는데, 문법 분석이 빠진게 약간 아쉽다.
그래서 문장 단위로 문법을 설명하라고 지시하면 얘가 알아서 출력해준다.
디테일에서 조금 빈약한 점이 느껴져서 이 부분은 다음에 더 개선된 모델을 기다리거나
내가 질문을 조금 더 자세히 입력해야 한다.
가끔가다 출력이 5000자를 넘기면 답변이 끊기는 일이 발생하는데,
이 때 이어서 출력하라는 명령을 하면 그대로 이어서 출력해준다.
내가 공부하고 있는 해설지에서는 이러한 공부방법을 제시했는데,
이 수능 문제에 해당 공부방법을 적용하고 싶어 생각이 들면
그대로 해주라고 지시하면 바로 결과가 나온다.
이렇게 chatGPT를 활용해서 실제 과외선생님에게 질문하는 것처럼
자신이 막히는 문제에 대한 해설을 요구할 수 있다.
하지만, 앞선 예시와 같이 자신이 알기를 원하는 내용을 상세히 적어야 원하는 답을 얻을 수 있다.
자신이 부족한 점이 무엇인지 인식하고,
이에 대한 해답을 chatGPT에 넣어서 해설을 보고 공부함으로 복습한다면,
정말 괜찮은 공부 방법이 될 수 있을 거라고 생각한다.
위의 문제는 2023년 국어 10번 문제인데, 너무 뻔뻔스럽게 정답을 맞혀버렸다.
이렇게 국어 등 다른 과목도 영어 때의 접근방식과 비슷하게 풀이를 불러올 수 있다.
0 XDK (+0)
유익한 글을 읽었다면 작성자에게 XDK를 선물하세요.
-
14명뽑 36지원 진짜마지막으로물어봄
-
어디가 더 좋나요?
-
생윤 입문자 림잇강의 수강중인데 칸트 정언명령에서 인격주의내용에서 예시로 부부사이의...
-
다들 외모가 장난 아니라네요.. 역시 인생은 불공평하다
-
12명 뽑고 37명 지원했어요! 막판까지 실지 1등이었어요,, 사라진 17명 때문에 불안하네요….
-
무리무리무리무리 정법해야하는데ㅠㅜ
-
대학 서열은 동홍인데 홍익대 자전 가면 건축이나 미대 갈 생각도 있어서 고민 중이에요
-
그럼 일주일네 2~3개던데 그거 하루에 몰아듣고 일주일동안 엮어읽기랑 매월승리...
-
캠퍼스 다니면 내얼굴과 동급인 분들이 70프론데
-
가진게 하나도 없으면 7ㅐ추
-
오랜만에 들어왔는데 부산의 관련 무슨 일 있었나요?
-
다들 그냥 독학하시나요? 해커스 토익 뭐 이런거 들으려하는데
-
캬 수시충 치고는 잘한거져?
-
서울대 0
신입생 수학 시험 보는 거 절대평가에요? 그런데 이거 43점을 못 넘기는 게 가능한가요?
-
ㅎㅇㅇ 2
서울 많이 춥다는거 같은데 흠... 훈련소 언제 끝나
-
정시 건동홍은 빡센 편인데
-
외모 9등급<<<주관적이라 누구나 농담 따먹기 가능함 3
키 9등급<<<<명확한 기준이 있어서 진짜들만 말할 수 있음
-
홍대 신소재 화공 충원이 모집인원의 1.5배수는 넘을까요? 작년에는 충원 인원이...
-
"콧속에서도 발견"…대장암·폐암 '급증' 원인 지목된 의외의 물질 1
최근 젊은 층에서 암 발병이 급증하고 있는 가운데 그 원인으로 '미세 플라스틱'이...
-
안녕하세요 현재 마지막 수능을 앞두고 있는 23학번 입니다. 여러번의 수능을...
-
독서 과학지문 0
물론 독해능력으로 커버가 가능하다 하시겠지만…. 다른 제재는 대부분 다...
-
궁금하네 근데 막상 하면 좌절할 듯
-
저메추좀
-
점공 669.47이면 합격일까요?
-
고양이치곤 높은거라 만족
-
수능은 처리속도 원툴이니까 그래서 난 대가리 7등급임 ㅅㄱ
-
수학 5도 뜬적있고 공부는 진짜 상관 없다
-
수미잡 0
참 슬픈말
-
미적분 질문 2
해설 마지막 3줄이 이해가 안 되는데 g(x)가 2x+n파이 꼴이어야 하는 이유...
-
Wais 기준 136= 99 130= 98 126= 1컷 120= 2컷 114=...
-
진짜 범고래랑 친구 먹을 것 같아서 받을 엄두가 안 남
-
근데 아이온큐는 많이 지장잇음... 제발 올라다오..
-
1년 학비는 되겠지...?
-
Iq103이면 7
당연히 5등급이겠지?
-
작수 34132 목표 경희 한의예 평상시 국어(언매) 1~2등급 수학(미적)...
-
띠따띠라띠따따또따띠따띠라띠따따또따띠따띠라띠따따또따띠따띠라띠따따또따띠따띠라띠따따또따띠따...
-
조유리vs장원영 13
원영누나는 너무 부담스러워서 난 조유리가 더 좋음ㅎㅎ
-
옯만추 11
ㅎㅎ
-
2번이 정답입니다 ㄱ과 달리<<<이 말이 이해가 안 가네요 본문 마지막 줄에...
-
애들 ㅈㄴ 어렵게 공부해야한다면 싫어하자나 왕도가 있는 줄 알자나 걍 그럴듯한 이론...
-
아이큐도 정규분폰데 어떻게 안되나
-
11211 2
기분좋아지는숫자
-
쟌나 슬픈건 0
비틱하고 싶어도 이룬게 없어서 할 수가 없다는 거임..
-
수학 하프 모고 3
수학 하프 모고 유명한거 추천해주세요..! 한 3, 4월까지는 모고는 하프로 할거 같은데
-
최소 251 배는 더 크다고 하는 연구 내용들도 있는데... 여기서 말하는 관측...
-
순서대로 cm,백분위,iq임 어캄뇨
-
주마다 돌아오는 그 메타
-
까 9시에 노숙자 한분 들어와서 새우탕 창고에있는거 다 털어서 9개 드시는 중...
-
[고려대학교 25학번 합격] 합격자를 위한 고려대 25 단톡방을 소개합니다. 0
고려대 25학번 합격자를 위한 고려대 클루x노크 오픈채팅방을 소개합니다. 24학번...
-
학교에서 입학처 확인하라고 문자옴뇨?
안녕하세요. 글의 내용에 약간 오류가 있는 거 같아 댓글 남깁니다~ chatGPT 아키텍처는 강화학습 모델이 적용되지 않았습니다. 자연어 처리 분야에서의 획기적인 성능 향상은 Encoder-Decoder에 Attention 노드를 도입한 Transformer 아키텍처의 개발 덕입니다. 사진에서 첨부한 2018년 즈음이면, attention node의 연구가 막 이루어지던 시점인 것으로 생각됩니다. 아마 사용된 모델의 아키텍처도 Transformer가 아닌 LSTM이나 GRU 계층에 의존하는 Rnnlm이었을 걸로 예상됩니다. 이 아키텍처를 개선한 Transformer모델이 성능 향상의 핵심이었지 강화학습이 자연어 처리에 적용됐다는 건 정확하지 않습니다. 강화학습은 자연어 처리보다는 다른 영역에서 더 적합한 기술이기 때문입니다. 예를 들어 말씀해주신 알파고 같은 경우가 그렇습니다. 하지만 자연어 처리 영역은 많이 다르다는 것이죠.
또한, chatGPT는 비지도 학습 또한 적용되어 학습되었기 때문에 보상을 늘리는 방식의 학습이 애플리케이션 성능을 향상시켰다는 것은 적절치 않습니다.
이 외의 chat GPT를 공부에 활용하는 방법은 참 좋은 거 같네요~ 저도 많이 배워갑니다~
즐거운 하루되세요 ^^
무슨 틀린 얘기를 이리도 길게... ㅋㅋㅋ chatgpt는 논문이 따로 없는데 instructgpt를 그대로 사용했습니다. 그러니 해당 논문을 참고해보면 RLHF를 사용했다는걸 알 수 있어요.
gpt3의 결과를 랭킹한다음 그걸로 학습한 모델을 일종의 리워드 함수로 사용한거죠..
사실 검색만 해봐도 나오는 사실을 이제막 ai배우시는분인 것 같은데...
알파고같은데만 쓰이는게 아니라 최적화와 관련된 모든 분야에 강화학습을 사용할 수 있어요.
예를들어 퓨샷같은 메타러닝에도요.. 찾아보면 in context learning을 더 잘하기 위해 퓨샷 전용 강화학습 적용하는 경우도 있어요
강화학습이 쓰이지 않았다니 ㅋㅋㅋ 당장 유저 인풋을 반영해서 새로운 보상을 제시한다고 밝힌 내용인데 chatgpt는 절대 순수 generative model로는 만들 수 없는 모델이에요 그리고 gpt모델의 베이스 모델인 transformer가 쓰이지 않았다는거는 무슨 말씀이신가요? Gru는 디퓨전 모델이나 GAN에 자주 쓰이지 gpt는 순서정보가 중요해서 트랜스포머가 우월전략이 확실합니더
트랜스포머가 아니라 rnnlm을 사용했다고 너무 당당하게 단언해버리시면 zzzzzz 설마 트랜스포머의 feed forward층에 있는 gru층을 rnn구조라고 생각하신건가요 ^^b
트랜스포머가 2018년의 혁신이긴 했지만 그로부터 gpt2까지 오면서 대중들에게 크게 와닿지 않았던 이유는 nlp모델로만 이루어진 모델은 성능에 한계점이 있었기 때문이에요 당장 gan만 봐도 아무리 비지도학습을 열심히 해도 모델 collapsing현상이 나오잖아요? 그래서 강화학습이 쓰인거고 그래서 빅테크랑 개인간의 간격이 벌어지느 거에요. 빅테크가 주도하는 사회변화는 이제 거부할 수 없을 겁니다