[논문 리뷰] LoRA: Low Rank Adaptation of Large Language Models
이번 리뷰는 논문 구조를 그대로 따르지 않고 내용을 간추리고 재구성하여 정리했다. 논문 링크는 여기!
이번 리뷰는 논문 구조를 그대로 따르지 않고 내용을 간추리고 재구성하여 정리했다. 논문 링크는 여기!
이번에 리뷰할 논문은 Transfomer를 발표한 “Attention is all you need”이다. 논문 링크는 여기 !
🧚🏻♀️참고 이 포스트는 Boostcourse의 ‘자연어처리의 모든 것’을 듣고 정리한 포스트입니다.
🧚🏻♀️참고 이 포스트는 Boostcourse의 ‘자연어처리의 모든 것’을 듣고 정리한 포스트입니다.
🧚🏻♀️참고 이 포스트는 Boostcourse의 ‘자연어처리의 모든 것’을 듣고 정리한 포스트입니다.