NLP 9

ELMO, BERT, GPT, 그리고 ViT

본격적인 글에 앞서 이 글은 CV를 연구중인 사람이 쓴 NLP 정리 글이다. 따라서 큼직한 내용의 이해를 목표로 하며 작성자의 주관적인 내용이 많이 포함될 수 있다. 위 사진... 나이대가 조금 있는 사람이라면 어렸을 적(어쩌면 어리기 전일수도..?) 한번쯤은 봤을 캐릭터들이다. 아마 빨간 애가 ELMO이고 머린 긴 노란 녀석이 BERT일 것이다. NLP 계열의 큼지막한 녀석들을 나열해보자면 다음과 같다. 2017 Jun : Transformer 2018 Feb : ELMo 2018 Jun : OpenAI GPT 2018 Oct : BERT 2019 Feb : OpenAI GPT-2 2020 Jun : OpenAI GPT-3 +.. T-NLG? 물론.. 여기에 비교적 최근 나온 DALL.E 나 CLIP ..

NLP 2021.06.11

Transformer를 알아보자 [Attention is all you need]

이제 드디어 정말 드디어 Transformer에 다가갈 수준이 되었다. 때는 2017년 아주 제목 어그로를 기똥차게 끈 논문이 하나 등장한다. 바로 이쪽 계열 사람들이라면 안들어본 사람이 없다는 'Attention is all you need'이다. 자 본격적으로 시작하기 전에 이 논문 이전에 해왔던 것들을 다시 정리해보자. RNN을 사용했고, LSTM을 사용했다. 그리고 그걸 조금씩 발전시켰고, 다양한 데이터셋들이 등장하고, Task들이 정립되어가고 있었다. Attentive니 뭐니 이야기 했지만 결과적으로는 LSTM의 연장선이었고 성능이 좋았으나 문제점이 있었다. RNN과 LSTM 모두의 문제점은 바로 '느리다'는 것이다. 사실 느린것을 제외하더라도 vanishing or exploding gradi..

NLP 2021.06.11

NLP Task 정리

이번 포스팅은 NLP에는 어떤 Task들이 있는지 한번 간략하게나마 정리해보려 한다. 매번 말하지만 이 글은 CV를 전공하는 사람이 작성하는 NLP 정리이다. 따라서 깊은 개념은 지양하고 이해에 목적을 뒀다. 또한 관점이 CV관점의 글일 수 있다. CV에 classification, detection(segment, instance ... ), generate, denising, SR... 등등의 다양한 Task가 있는 것 처럼 당연히 NLP에도 다양한 Task들이 있다. 다양한 모델들을 이해하기 위해서는 어떤 Task들이 무엇을 목표로 하는지 알아두는 것이 좋다. 그 자세한 내막은 모를지언정 전체적인 큰 그림을 알기 위해서는 필수적이다. 하나씩 용어와 개념을 정리하며 큰 그림을 그려보자. Q. 읽는다는..

NLP 2021.06.11

인공지능에서 Attention 이란? _ seq to seq

이 시리즈의 최종목표인 Transformer 하면 빠뜨릴 수 없는 녀석이 바로 attention이다. 이놈의 어텐션은 이곳 저곳에서 끊임없이 등장한다. 그도 그럴것이 매우 직관적인 개념이며, 핵심적인 녀석이기도 하기 때문이다. 오늘은 한번 이 어텐션에 대한 대략적인 개념을 알아보자. 우선 글을 작성하기에 앞서 이 글은 CV를 전공하는 사람이 작성한 NLP 글임을 밝힌다. 개념을 이해하는 것이 주 목적이며 따라서 설명의 편의를 위해 다소 주관적인 해석이 들어있을 수 있다. 또한 CV 관련 내용이 포함되어 있을 수 있다. 자 저번 글에서 설명했었던 RNN을 다시금 떠올려보자. 번역을 해 주는 RNN이 있다고 해보자. 이녀석은 입력받은 단어들의 과거 정보들을 지속적으로 옆으로 전달시켜 준다. 위 사진을 자세히..

NLP 2021.06.11

NLP 벤치마크 GLUE

오랜만에 다시 시작해본다. 사실 NLP의 벤치마크는 별로 관심도 없을 뿐더러 정리하고자 하는 마음도 거의 없었다. 그런데... 최근 자꾸 GLUE 라는 단어가 여기저기서 들려와서 찾아보다가 짧게 정리하고자 한다. A benchmark of nine sentence- or sentence-pair language understanding tasks built on established existing datasets and selected to cover a diverse range of dataset sizes, text genres, and degrees of difficulty, A diagnostic dataset designed to evaluate and analyze model performa..

NLP 2021.06.11

RNN과 LSTM

이전 글을 쓰면서 돌리던 학습이 아직도 안끝났다. 2편을 썼는데 기어코 오늘 3편을 쓰게 만드는 녀석이다. 그래도 기분이 조금 들뜨는게 지금까지 중에서 최고의 결과가 나오는 중이다. 잡설은 여기까지 하고 다시 NLP로 돌아가보자. 이번 포스팅에서는 RNN과 LSTM이라는 NLP의 기초중의 기초인 녀석들을 알아 볼 것이다. CV에선 Max pooling 정도 되는 녀석들 일 것 같다. 과거의 영광을 누렸으나 지금은 잘 안보이는... 일단 이녀석들을 알기 위해서는 Feed-forward Neural Network를 알아야 한다. 사실 이미 알고 있다. 주구장창 말했던 딥러닝 네트워크가 Feed forward 이다. 요런 녀석들 말이다. 그저 입력넣고 출력 나오는 녀석들이 바로 피드포워드 네트워크이다. 핵심적..

NLP 2021.05.02

Word Embedding

이 글은 Word Embedding을 CV의 관점에서 풀어보려 한다. 사실 지금 NIPS를 쓸 수도 있는(한 달 밖에 안남아서 교수님께서 일단 써보고 안되면 다른곳에 내자 하신) 실험을 진행중이다. 사람 마음이 참 그런게 학습 로그가 계속 눈에 들어온다... 내가 보고있으나 안보고 있으나 어차피 결과는 똑같을 것이고 학습이 끝난 뒤에 확인하면 될텐데 그게 안된다.. 그래서 학습 돌리는 중에는 다른 일을 못하겠어서 결과 확인을 계속 하면서 NLP를 정리하려 한다. 예전에 주식을 처음 시작했을 때, 정말 하루종일 차트에서 눈을 떼지 못했던 기억이 난다. 주식도 한 한달~두 달 지나니 차트를 하루에 한번 두달~6달 지나니 일주일에 한번만 봐도 괜찮은 상태가 되었었는데 학습돌리는 것도 같지 않을까 싶다. 잡소리..

NLP 2021.05.02

딥러닝에 대한 짧은 정리

이전 글에서도 언급했지만 이 포스팅은 기본적으로 컴퓨터비전을 연구하는 사람의 NLP 정리 글이다. 우선 딥러닝에 대해 짧게 짚고 넘어가려 한다. 인공지능, 머신러닝, 딥러닝의 차이에 대한 글들은 정말 도처에 널려있으니 필요하시다면 검색을 바란다. 딥러닝 부터 시작해보자. 딥러닝 하면 이런 그림들을 자주 보게 된다. 기본적으로 우리의 뇌 속에 있는 뉴런이라는 신경세포가 동작하는 모습을 가져와 만든것이 딥러닝이다! 라고들 많이 말한다. 하지만 정확하게는 반은 맞고 반은 틀린 이야기이다. 그 정확한 역사와 흐름은 공부해보면 나름 재미있기도 하고 흥미롭지만 지금은 자세히는 다루지 않겠다. 다만 예전에 수학적으로 사진을 판단하는 시도들이 연구비를 많이 타갔었는데(연구도 다 돈이다.) 언젠가 무슨 심리학자가 최근에..

NLP 2021.05.01

NLP 정리를 시작하며

2021.05.01 현재 인공지능 대학원 첫학기를 보내는 중이다. 기껏 해봐야 학기 시작한 지 2달 지난 셈이다. 2달 남짓한 시간동안 CV 분야에서 많은 지식들을 쌓으려 노력했고 확실히 2달 전에 비하면 아는 지식의 양이 차원이 다르게 늘었다. 현재 관심을 가지고 연구하는 분야는 여러 분야이지만.. 그 중에서도 지도교수님의 분야인 GAN 관련 연구가 당연스럽게도 메인 분야이다. 이전부터 공부를 했었긴 했지만 2015년 군대를 기점으로 정보 업데이트가 안되어 있었다. 고작 5년이라 생각했는데 5년동안 정말 많은 일들이 일어났었다.. 꾸역꾸역 공부 한 뒤 최근 들어서야 최근 동향을 파악중이다. 요즘 들어 재미있는 트렌드가 CV에서 자리잡고 있다. 바로 Transform을 응용하는 방향이다. 이와 관련해서는..

NLP 2021.05.01
반응형