-
🤗 Flax/JAX community week 참여
-
TPU + JAX/Flax를 활용하여, 직접 사전 학습시킨 GPT2-korean 공개!
- 현재 공개된 GPT2 모델들(skt koGPT2, lmkorGPT)은 라이선스 문제로 상업적 활용에 제한이 있음.
- KLUE Dataset, KorQuAD Dataset, NIKL Corpus(국립국어원 모두의 말뭉치), Korean Text Datasets from AI-hub, oscar-korean등을 데이터로 직접 사전 학습시킨 한국어 GPT2 공개!
- 사전 학습시킨 GPT2-korean
- GPT2-korean-demo
- huggingface spaces beta 사용 가능해야 확인 가능
- 2020.12 엔비디아, LG전자, 인텔, AWS 등이 참여하고 인공지능산업융합사업단이 주최한 Dream_AI Hackathon 1위!
- http://www.veritas-a.com/news/articleView.html?idxno=349725