배우고 느끼고 생각하고 사랑하라

그리고 즐겨라

논문리뷰 4

[논문 리뷰] Mass-Editing Memory In a Transformer

이 글은 체계적인 정리보다는 메모에 가깝습니다. 해당 논문에 대해 이야기 나누고 싶으시다면 언제든지 환영합니다. Mass-Editing Memory In a Transformer Meng et al., 2022 https://arxiv.org/abs/2210.07229 Mass-Editing Memory in a Transformer Recent work has shown exciting promise in updating large language models with new memories, so as to replace obsolete information or add specialized knowledge. However, this line of work is predominantly limite..

[논문 리뷰] Transformer-Patcher: One Mistake Worth One Neuron

이 글은 체계적인 정리보다는 메모에 가깝습니다. 해당 논문에 대해 이야기 나누고 싶으시다면 언제든지 환영합니다. Transformer-Patcher: One Mistake Worth One Neuron Zeyu Huang et al., 2023 https://openreview.net/forum?id=4oYUGeGBPm Transformer-Patcher: One Mistake Worth One Neuron A Sequential Model Editor to correct model's output on the specific input. openreview.net 요약 T-Patcher는 Sequential Model Editing (SME) task를 다루기 위한 모델이다. T-Patcher는 Tra..

[논문 리뷰] Can We Edit Factual Knowledge by In-Context Learning?

이 글은 체계적인 정리보다는 메모에 가깝습니다. 해당 논문에 대해 이야기 나누고 싶으시다면 언제든지 환영합니다. Can We Edit Factual Knowledge by In-Context Learning? Ce Zheng et al., 2023 http://doi.org/10.18653/v1/2023.emnlp-main.296 Can We Edit Factual Knowledge by In-Context Learning? Ce Zheng, Lei Li, Qingxiu Dong, Yuxuan Fan, Zhiyong Wu, Jingjing Xu, Baobao Chang. Proceedings of the 2023 Conference on Empirical Methods in Natural Language..

[논문 리뷰] Fast Model Editing at Scale

이 글은 체계적인 정리보다는 메모에 가깝습니다. 해당 논문에 대해 이야기 나누고 싶으시다면 언제든지 환영합니다. Fast Model Editing at Scale Eric Mitchell et al., 2023 https://openreview.net/forum?id=0DcZxeWfOPt Fast Model Editing at Scale While large pre-trained models have enabled impressive results on a variety of downstream tasks, the largest existing models still make errors, and even accurate predictions may become outdated... openreview...