4월 넷째 주
읽은 논문
BigGAN
Self-Attention GAN(SA-GAN) 기반 (28 Sep 2018)Training Generative Adversarial Networks with Limited Data (https://arxiv.org/abs/2006.06676)
Neurips 2020
p값에 따라 학습을 진행하면서 데이터 어그를 변화시킴.Differentiable Augmentation for Data-Efficient GAN Training (https://hanlab.mit.edu/projects/data-efficient-gans/)
이 친구는 제대로 못읽음. 개념만 받아들인 정도...?ContraGAN: Contrastive Learning for Conditional Image Generation
https://arxiv.org/abs/2006.12681TRAINING GANS WITH STRONGER AUGMENTATIONS VIA CONTRASTIVE DISCRIMINATOR
읽고 싶은 논문
기존 내용 접기/펼치기 버튼
글을 사진으로
노트 제목 : nlp 함치기 (03.16)
nlp 수업 듣다가 그냥 막 이것저것 합쳐서 그려봄. 구체화해보고 싶다면...
- CLIP: Connecting Text and Images https://arxiv.org/abs/2103.00020 블로그 https://openai.com/blog/clip/
사진 각도를 바꿔보자.
노트 제목 : gan회전(03.05) , 차원을 늘리면?(03.21)
gan 회전은 wgan 읽고 두가지 방식의 거리를 적절히 혼용해볼 생각을 했었음. 구에다가 맵핑 시키면 어떨까 하는 이야기가 나옴.
- Sphere Generative Adversarial Network Based on Geometric Moment Matching
- HoloGAN
차원을 늘리는 생각은 조금 더 구체화 해봐야 하지만 - Nerf, Nerf++. nerf-- 얘네랑 비슷한 개념. -> https://github.com/yj-uh/vi-lab/issues/26#issuecomment-792227996
- [ ] https://arxiv.org/abs/2103.07751 이것도 참고하자. Unsupervised Image Transformation Learning via Generative...
Contrastive랑 GAN이랑
- [x] Training GANs with Stronger Augmentations via Contrastive Discriminator (https://arxiv.org/abs/2103.09742)
중요 포인트를 태우자
노트 제목 : 패치 트랜스포머?
Vision Transformer (VIT) 보고 떠올림 이미지 패치로 넣는데 이걸 좀 다른 영역도 같이 넣어주면 좋을텐데... 라는 것임. 구체화된 생각 하나도 없음.
focus 된 convolution 관련 논문으로
- Deformable Convolutional Networks
AE 또는 VAE랑 GAN을 합치면?
노트제목 : 이게뭐람(03.19)
- introvae https://arxiv.org/abs/1807.06358
- adversarial autoencoder https://arxiv.org/abs/1511.05644
- bigan https://arxiv.org/abs/1605.09782
흑인 왜 없음
- Reliable Fidelity and Diversity Metrics for Generative Models
제대로 안읽어봤으니 읽어보자... - Extended Isolation Forest
분류를 이렇게도 할 수 있더라 읽어보자.
K-means 하면서 classification
노트제목 : 크게 분류해보면서 작은걸로
- SWAV
- Towards Open World Object Detection 참고
- Network dissection
- GAN dissection
뫼비우스 띠 브레인스톰
위상수학적으로 뫼비우스의 띠를 정의내릴 수 있고 수학 공식화 시킬 수 있습니다.
뫼비우스의 띠는 기하학적으로 위, 아래가 없고 좌, 우만 존재하는 특징을 지니고 있습니다.
또한 평면임에도 불구하고 3차원에서 관찰하여야만 그 특성을 온전히 알 수 있다는 특징이 있습니다.
어떤 데이터들을 이 뫼비우스의 띠에다가 보내면 어떻게 될지 궁금합니다.
수학적으로 정의가 내려져 있고 뭐 어찌어찌 잘 하면 될 것 같은데 어떤 의미를 지니게 될지 그리고 어떻게 동작하게 될지 궁금하네요.
이상 정말 말 그대로 Brainstorm 이었습니다.
imprint 관련하여 많이 읽어볼 예정.
구현한 논문
(code) - 구현 코드 저장 repo
구현중인 코드
- 기존의 코드에 FID 적용시키기.
- imprinting 관련 아이디어 코드화 시키기
- 개인 연구 imagenet 돌려보기
(code) - 구현 코드 저장 repo
지난주 계획 체크
마음을 다잡고 다시 처음처럼.
영어 단어 다시 외우자 -> 안외움...
논문도 다시 처음처럼 빡세게 읽자 -> 이건 좀 한듯 함.
토 : 패턴인식, 개인연구, 논문읽기 (진행중)
일: 중간고사 채점, 논문읽기, 개인연구+LGD
월: 개인연구 마무리, LGD 코드
화 : LGD 마무리, ppt(아마도)
수 : 목요일 발표준비
목 : 금요일 발표준비, NLP 과제
금 : NLP 과제.
총 평 : 진짜 죽어나는 한주였다. 그래도 다 했다.
아쉬운 점은 원래는 김선주 교수님 수업 발표 내용을 가져와서 우리 세미나에도 발표하려 했는데 그 계획을 바꾸는 바람에 우리 세미나 발표가 조금 미흡했던 것 같다...
계획
토 : NLP 과제 함.
일 : NLP과제 & 개인 연구 코드 실행 & imprint 관련 experiments settings와 competitors 찾아서 넣기...
월 : 진짜 오랜만에 개인연구에 매진할 때가 된 듯 하다.
화 : 개인 면담 후 계획을 세워보도록 하려 한다.
진행중인 사항
- LGD 연구에서 파생된 연구 -> 급박
- 개인연구
- 꾸준히 지식의 폭을 넓혀야 함. 공부.
해야하는 과제 + a
- NLP 중간 대체 과제. (3일 남음)
- 딥러닝 이론 과제
- 딥러닝 이론 수업 듣기
- 인공지능 수학 과제 채점하기.
- 어영정 교수님의 인공지능 수학 듣다 만거 마저 듣기 (마음 편히 들으니 생각보다 꿀잼)
Brainstorm
방학만 되면 진짜 하고싶은 실험들 다 하면서 시간을 보내고 싶습니다.
과제와 수업 발표들에 치이니 시간이 많이 없네요..