본문 바로가기

NLP/논문리뷰24

[논문 Review] 23. Generative Agents 25명의 에이전트와 자연어로 상호작용해보자! 꽤나 예전에 나왔던 논문인데, 분량도 꽤 있고 좀 더 꼼꼼하게 읽고 싶어서 정리를 미루고 있었다. 예전에 나왔던 논문인만큼 사용하는 백본 모델도 gpt-3.5로 예전 버전이고, 최근에는 모델 성능도 발전했기 때문에 본 논문에서 제시한 문제점 중 해결이 된 부분들도 많을 것이라 생각한다.하지만 자연어로 상호작용하는, 페르소나를 가진 game agent는 꼭 연구해보고 싶은 분야였기 때문에 근본 논문인 generative agent부터 조사를 진행해보았다.https://arxiv.org/abs/2304.03442 Generative Agents: Interactive Simulacra of Human BehaviorBelievable proxies of human.. 2025. 4. 10.
[논문 Review] 22. Evaluating Human-LM Interaction Human - LM Interaction을 평가하기 위한 벤치마크 구축HCI 분야에 관심을 가지게 된만큼 당분간 논문 리뷰는 해당 분야가 올라올 것 같다. 야호!원래는 근본 논문이자 최근에 가장 흥미롭게 읽었던 Generative Agents 논문을 먼저 가져오려고 했으나,  그건 정리가 길어질 것 같아서 우선은 미뤘다. 이 논문을 보게 된 이유도 바로 Generative Agents 논문 때문이다.실험 세팅이나 구성이 매우 흥미로워서 1저자분 블로그를 탐독했더니, 이러한 벤치마크 연구도 하셨더라.https://www.joonsungpark.com/ Joon Sung ParkJoon Sung Park's personal site.www.joonsungpark.com 지난 번 네부캠 프로젝트였던 "찐친이되.. 2025. 3. 6.
[논문 Review] 21. Deepseek LLM 각종 최신 기법 & 메모리 절약을 통해 OpenAI 성능을 따라잡자! https://arxiv.org/abs/2401.02954 DeepSeek LLM: Scaling Open-Source Language Models with LongtermismThe rapid development of open-source large language models (LLMs) has been truly remarkable. However, the scaling law described in previous literature presents varying conclusions, which casts a dark cloud over scaling LLMs. We delve into the study of scalarxi.. 2025. 2. 13.
[논문 Review] 20. NV-Retriever: Improving text embedding models with effective hard-negative mining 좋은 Contrastive Learning을 위한 Hard Negative를 잘 찾아보자 https://arxiv.org/abs/2407.15831 NV-Retriever: Improving text embedding models with effective hard-negative miningText embedding models have been popular for information retrieval applications such as semantic search and Question-Answering systems based on Retrieval-Augmented Generation (RAG). Those models are typically Transformer models that ar.. 2024. 12. 22.
[논문 Review] 19. Mixed Precision Training FP16 casting을 통해 메모리 사용량과 학습 시간을 단축시키자!  https://arxiv.org/abs/1710.03740 Mixed Precision TrainingDeep neural networks have enabled progress in a wide variety of applications. Growing the size of the neural network typically results in improved accuracy. As model sizes grow, the memory and compute requirements for training these models also increases.arxiv.org Abstract일반적으로 신경망의 크기를 늘리면 정확도가 향상되.. 2024. 7. 25.
[논문 Review] 18. Recommendation as Language Processing (RLP) : A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) 논문의 핵심 내용 한줄 요약LLM으로 추천 시스템을 구축해보자! https://arxiv.org/abs/2203.13366 Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5)For a long time, different recommendation tasks typically require designing task-specific architectures and training objectives. As a result, it is hard to transfer the learned knowledge and representations from one task .. 2024. 7. 11.