영어 못해도 논문 잘 읽는 법
‘그 발번역 정말 못읽겠더라. 차라리 원서 읽어.’대학생 초년 시절, 영어가 너무 벅찬던 내가 운좋게 번역본이라도 구해 들고 있을지면 친구들은 항상 내게 이런 말을 건냈다. 번역본이 훨씬 어렵지 않냐면서 말이다.
‘맞아맞아~ 어떻게 한글이 영어보다 어렵니? 원서가 훨씬 쉬운 듯’
‘당연하지… 그냥 원서 읽을 걸 그랬어…!’나도 이렇게 말을 하고 싶었지만 난 그럴 수가 없었다. 이 번역이 발번역이라면 내 번역은 똥번역인걸…ㅠ 적어도 번역본을 읽으면 하루에 한페이지 이상은 읽을 수 있지 않은가…(…) 아무튼 나는 영어를 무지 못했고, 지금도 못하며(…ㅠ), 앞으로도 못할 것이다(ㅠㅠ팩트폭행ㅠㅠㅠㅠ)
하지만 결국엔 그 어떤 대학원생들도 영어를 피해갈 순 없었다. 최신 지식은 영어로 되어있고, 대부분의 지식공유(=논문)도 영어로 되고 있으며, 한편으로 생각해보면 영어도 읽지 못하고 ‘누군가의 번역본’만 읽는 본인 역시 독립적인 연구자라고 말할 수 없기 때문이다.
그렇다면 영어에 까막눈인 나, 어떻게 하면 논문을 효율적으로 읽을 수 있을까?
논문, 보기만해도 울렁거리는 그것이여... |
논문 영어, 겁먹지 마라
먼저 말하고 싶은건, (적어도 이공계) 논문 영어는 일상 영어보다 훨씬 쉽다는 사실이다. 사람들은 ‘그냥 논문만 읽기도 어렵고, 영어만 읽기도 어려운데, 논문 영어면 얼마나 어렵겠어?’라며 지레 겁을 먹는데, 사실 논문 영어는 뉴스 영어나 소설 영어보다 백만 배 쉽다. 왜냐하면 논문은 표현의 간결성(conciseness)과 명료성(clarity)이 매우 중요하기 때문에 중언부언 하지도 않고, 괜히 추상적인 말을 쓰거나 모호한 말을 사용하지 않기 때문이다.
게다가 논문의 영어 구조는 매우 명확하다.
- 나는 이런 문제를 풀거야 (abstract)
- 사실 이 문제는 이런 동기에서 연구가 시작된건데 (introduction)
- 관련해서 이런저런 접근들이 있었지 (related works)
- 난 이런 새로운 방식으로 접근해보려고 하는데 (method)
- 정말 이게 잘 먹히는지 실험도 해봤어 (experiment)
- 이를 통해 이런 사실도 알아냈지만 한계점도 있지 (discussion)
- 마지막으로 귀찮은 너를 위해 요약 (conclusion)
논문은 위의 구조에서 ‘이런, 저런, 어떻게’ 등등이 무엇으로 치환 됐는지만 알면 된다. 수식? 그건 정말 이 논문을 재현할만큼 관심이 있을 때 자세히 들여다 보는거고 (혹은 문장보다는 수식으로 확인하는게 더 명확하기에 들여다 보는거고), 결국 논문의 핵심은 ‘내가 주어진 문제에서 이러한 기여(contribution)를 했다’가 내용의 대부분인 것이다.
그러니 미리부터 겁먹지 말자. 영어기사는 못 읽어도 논문 영어는 충분히 읽을 수 있다.
다음 섹션부터는 실제 논문 하나를 잡고 읽는 과정을 같이 해보도록 하자. 사실 오늘 논문을 하나도 안읽었기에 1타 2피를 취하려는거다. 필자가 석사를 갓 입학한 학생이라 배경지식이 매우 얕다고 가정해보고 한번 같이 읽어보겠다.
우선 그 분야의 개략적인 연구들을 훑어보려면 관련 키워드와 함께 ‘review’, ‘survey’, ‘tutorial’ 등을 넣고 함께 검색해보면 좋다. 이들은 특정 문제를 푸는 일반 논문들과 달리, 관련 연구들을 종합하거나 (review), 조사하거나 (survey), 쉽게 설명하고 있다. (tutorial)
우측을 보면 논문의 출판 연도의 범위를 설정해가며 검색할 수 있음을 참고하자. 위의 논문 검색 결과에서 보면 두번째에 나온 deep learning이란 논문이 대가들에 의해 쓰여지고 네이처에도 실렸던 ‘개론적 성격’의 논문인데 매우 쉽게 쓰여졌고, 논문 인용수 (cited by 부분)도 짱인듯 하니 저 논문부터 딥러닝 공부를 시작하면 될 것 같다. 딥러닝 공부 방법도 알려주는 꿀 포스팅
리뷰 논문은 특별한 형식의 논문이니, 이 논문 말고 일반적인 논문을 하나 검색해서 함께 읽어보자. 논문 제목은 “Deep, Convolutional, and Recurrent Models for Human Activity Recognition using Wearables”(2016). 뭔가 웨어러블 장치에서 얻은 데이터를 딥러닝을 이용해 사람 행동 인식에 사용한다는 내용인 것 같다.
물론 제목부터 읽고… 초록은 마치 ‘출발 비디오여행’에서 보여주는 영화의 하이라이트와 같기 때문이다. 게다가 대부분의 논문들은 ‘초록 읽기’ 단계에서 나머지를 읽느냐 마느냐가 결정된다. 그러니 논문 읽기는 초록의 한문장 한문장을 유심히 뜯어보는 것으로 시작하도록 하자.
영어를 보니까 벌써 졸음이…ㅠ
논문 초록을 다 읽었다면 적어도 이 논문이 ‘무슨 문제’를 풀려고 했고, ‘어떠한 새로운 기여’를 담고 있는지 파악했어야 한다. (만약 이 문제가 내가 관심있는 문제가 아니라면 논문 패스…)
우리가 선택한 이 논문에서는 애플워치 같은 웨어러블 센서를 이용해 사람의 행동을 인식하는 문제(HAR)를 다루고 있는데, (1) 웨어러블 센서 데이터는 어떻게 학습해야 하는지 소개하고, (2) 거기에 적당한 새로운 regularization 방법을 제시했으며, (3) 이것이 어떤 파라메터 세팅 속에서 잘되는건지 실험을 통해 증명한 것 같다.
이정도면 오케이. 혹시 내가 잘못 이해했을 수 있으니 결론을 미리 한번 보도록 하자.
논문 고르기
일단 논문부터 찾아봐야 할텐데, 가장 쉬운 방법은 구글스칼라를 이용하는 것이다. 구글스칼라에서 웹문서를 검색하듯 관심있는 키워드를 넣고 논문을 검색 하면된다. 한번 같이 해보도록 하자.초록 읽기 (Abstract)
세상 연구자들 중 99%는 초록(abstract)부터 읽는다.Human activity recognition (HAR) in ubiquitous computing is beginning to adopt deep learning to substitute for well-established analysis techniques that rely on hand-crafted feature extraction and classification techniques. (한가한 소리로 시작하고 있네.)
From these isolated applications of custom deep architectures it is, however, difficult to gain an overview of their suitability for problems ranging from the recognition of manipulative gestures to the segmentation and identification of physical activities like running or ascending stairs. (어떤 점들이 어려운 점들이라 하는군... 문제 소개)
In this paper (밑줄 쫙, 이제부터 내가 뭘했다는 얘기다. 아마도 위에서 언급한 어려움을 해결하려 했겠지?) we rigorously explore deep, convolutional, and recurrent approaches across three representative datasets that contain movement data captured with wearable sensors. (딥러닝을 세가지 웨어러블 센서 데이터셋을 가지고 탐색했군. 탐색이라... 뭐 이런 애매한 단어를...)
We describe (1) how to train recurrent approaches in this setting, introduce a (2) novel regularisation approach, and illustrate (3) how they outperform the state-of-the-art on a large benchmark dataset. (이런 것들을 했구나... 앞으로 이런거 찾으며 읽으면 되겠다.)
Across thousands of recognition experiments with randomly sampled model configurations we investigate the suitability of each model for different tasks in HAR, explore the impact of hyperparameters using the fANOVA framework, and provide guidelines for the practitioner who wants to apply deep learning in their problem setting. (실험도 했고 파라메터들의 영향도 조사했고, 실험결과에 따른 가이드라인도 제시했다고 하네.)
논문 초록을 다 읽었다면 적어도 이 논문이 ‘무슨 문제’를 풀려고 했고, ‘어떠한 새로운 기여’를 담고 있는지 파악했어야 한다. (만약 이 문제가 내가 관심있는 문제가 아니라면 논문 패스…)
결론 읽기 (Conclusion)
논문은 꼭 순서대로 읽을 필요가 없다. 필자 같은 경우엔 내가 초록을 통해 ‘다루는 문제와 이 논문의 기여’를 파악한 후, 내가 제대로 이해했는지 확인하기 위해 결론을 먼저 읽는 방법을 택하고 있다.In this work we explored the performance of state-of-the-art deep learning approaches for Human Activity Recognition using wearable sensors. (아까 사람행동 인식 문제를 푼다고 그랬었지?)
We described (1) how to train recurrent approaches in this setting and (2) introduced a novel regularisation approach. In thousands of (3) experiments we evaluated the performance of the models with randomly sampled hyperparameters. We found that bi-directional LSTMs outperform the current state-of-the-art on Opportunity, a large benchmark dataset, by a considerable margin. (얘 아무리 귀찮아도 앱스트랙이랑 똑같이 썼네...)
(중략)
We found that models differ in the spread of recognition performance for different parameter settings. Regular DNNs, a model that is probably the most approachable for a practitioner, requires a significant investment in parameter exploration and shows a substantial spread between the peak and median performance. Practitioners should therefore not discard the model even if a preliminary exploration leads to poor recognition performance. More sophisticated approaches like CNNs or RNNs show a much smaller spread of performance, and it is more likely to find a configuration that works well with only a few iterations. (원래 파라메터에 따라 성능이 많이 달라지는데, DNN이 파라메터 찾는데 제일 개고생이고 CNN이나 RNN은 그나마 좀 낫다네...별 인사이트가 없자나ㅠㅠ 논문 잘못 골랐나..ㅠㅠㅠ)
초록과 결론을 통해 논문이 무슨 문제를 풀려했고, 결국 어떠한 기여를 했는지 알았으면 이미 논문의 절반은 읽은거다. 마치 드라마의 인물관계도를 파악하고 나중에 엔딩을 스포일 받은 느낌이랄까?
만약 ‘이 드라마는 이쯤이면 됐어. 그만볼래.’ 싶으면 논문을 그만보면 되는 것이고, ‘우아, 재밌겠다. 도대체 어떻게 한거지?’ 궁금하면 서론부터 더 자세히 읽어나가면 될 것이다.
논문읽기에 지쳤을 땐 이렇게 외쳐보자. ‘이런 내맘 모르고 너무해 너무해.’ |
서론 읽기 (Introduction)
사실 서론이야말로 초짜 대학원생들에겐 가장 보물과 같은 파트이다. 왜냐하면 논문의 본론은 단지 자신의 지엽적인 문제 해결만을 다루고 있지만 (게다가 이해하기도 어렵다!) 서론에서는 주옥같은 주요 연구들을 한줄 요약들과 함께 너무나도 친절하게 소개해주고 있기 때문이다. 게다가 소개되는 논문들은 대게 이 문제를 풀어야 할 연구자라면 꼭 읽어야 하는 논문들이 많다!
그러니 이번 논문은 버리더라도 서론을 통해 다음 논문은 꼭 소개받도록 하자!
한 논문의 서론에선 적게는 한두개, 많게는 대여섯개까지 읽고 싶은 (혹은 읽어야 할) 논문들을 발견할 수 있다. 그리고 그 다음 것을 읽으면 또 주렁주렁 다음에 읽어야 할 논문들이 생긴다.
첫 논문을 읽기가 어렵지 그 다음의 사슬을 따라가는건 그리 어렵지 않다. 그러니 다시 강조하지만, 연구 초짜라면 서론을 통해 주옥같은 논문들을 소개받도록 하자.
서론은 (1) 내가 어떤 문제를 풀고 있는지, (2) 관련 연구들은 이 문제를 어떻게 풀어왔는지, (3) 마지막으로 나는 그들과 달리 어떤 입장에서 문제를 해결했는지를 상대 비교와 함께 설명해준다. 큰 그림을 보여준다고나 할까? 그러니 서론을 읽을 때 산만하게 빠져들지 말고 각 연구들을 왜 서론에서 보여주고 있는지 이해하며 읽도록 하자. 모든 내용은 본론을 잘 이해시키기 위해 존재하는 것들이다.
여기까지 읽었으면 논문의 2/3는 읽은거다! 서론에서 다른 흥미로운 논문을 소개받아 그쪽으로 넘어가고 싶다면 여기서 읽기를 멈춰도 좋다. 하지만 그런식으로 논문 소개만 받다가 소개팅만 백번한 사람으로 끝날 수도 있음에 유념하자. 소개팅의 목적은 다른 사람을 소개받는데에만 그치지 않는다. 언젠간 사귀어야 한다.
ASKY
운 없게도 우리가 선택한 논문은 표가 2개, 그림이 2개 밖에 없다.
저자한테 따지고 싶은 심정ㅠ
Table 1은 실험에 사용된 다섯가지 딥러닝 모델들(행)과 이들의 파라메터값들(열)을 보여주고 있다. 그냥 실험 세팅 이렇다는 것에 대한 디테일. 과감히 패스….
Table 2는 이 논문의 메인 실험결과이다. 5가지 모델을 가지고 3가지 데이터셋에 대해 실험해봤는데 굵게 표시된 성능들이 최고 성능들이었음을 나타낸다.
결국 이 논문도 노가다&쇼 논문이구나ㅠ
쉬어가는 페이지: 표/그림 보기
영어 독해를 쉽게하는 방법 중 하나는 ‘앞에 나올 내용을 예상하며 읽는 것’이다. 이제까지 초록, 결론, 서론을 읽었던 것은 모두 본론에 어떤 내용이 나올지 잘 예측할 수 있기 위해서였다. 여기에 또 한가지 본문 이해에 도움을 주는 소재가 있다면 바로 표와 그림들이다. 영어만 남은 사막같은 논문에 한줄기 오아시스와도 같달까?논문을 읽기 귀찮다면 초록,서론,결론으로 논문의 개요를 파악한 뒤 표와 그림을 통해 본문을 예측해보도록 하자.
운 없게도 우리가 선택한 논문은 표가 2개, 그림이 2개 밖에 없다.
Table 1은 실험에 사용된 다섯가지 딥러닝 모델들(행)과 이들의 파라메터값들(열)을 보여주고 있다. 그냥 실험 세팅 이렇다는 것에 대한 디테일. 과감히 패스….
Table 2는 이 논문의 메인 실험결과이다. 5가지 모델을 가지고 3가지 데이터셋에 대해 실험해봤는데 굵게 표시된 성능들이 최고 성능들이었음을 나타낸다.
Figure 1은 5가지 모델을 설명하기 위한 그림들이다.
처음보면 어려워보이지만 사실 이 분야
사람들에겐 교과서에 적힌 내용을 옮겨온 것과 다를 바가 없다. 그래서 패스…
난 시험에 안나오는거 팍팍 패쓰해주는 선생님이 좋더라…
마지막으로 Figure 2은 그냥 단순히 Table 2처럼 성능만 보여주면 뭔가 심심하니까 통계적으로 약간의 허세를 부린 것이다;;; 이 그래프를 통해 얻은 특별한 인사이트가 있나해서 본문에서 찾아봤지만 별게 없었으니 이 역시도 과감히 패스.
논문 읽기 싫은지 점점 성의가 없어지는구나…
은 생략하도록 하겠다ㅎㅎㅎ 다들 지치셨을 것 같으니…ㅎㅎㅎ
특히 내가 지쳤다ㅎㅎㅎ
이제까지의 논문읽기가 “무엇을”, “왜”에 대한 내용이었다면, 방법과 실험은 “어떻게”에 대한 본연구의 자세한 설명이다. 이 부분을 읽는데는 왕도가 없다. 수식이 이해가 안되면 글을 뚫어져라 읽고, 글이 이해가 안되면 수식을 뚫어져라 보도록 하자.
만약 이정도까지 이해했다면, 디테일한 수식이 외계어로 써있어 못읽겠다 하더라도 이해한셈 치고 넘어가도 좋다. 전체 논문을 읽는데엔 큰 지장이 없기 때문이다. 중요한건 수식이 아니라 ‘내가 뭘 읽고 있는지’와 ‘내가 왜 읽고 있는지’의 능동적 이해 자세이다. 혼미해지는 정신 꽉 부여잡고 이 논문의 핵심스토리에 집중하자.
우리는 생전 처음 보는 논문을 함께 읽어봤다. 논문을 다 읽었으면 처음에 시작했던 논문 구조에 맞춰가며 내가 깔끔히 이해했는지 정리하는 단계가 필요하다. 혹자는 노트로 정리하기도 하고, 혹자는 슬라이드로 친구들 앞에 발표를 하기도 한다고 한다. 참고로 나의 지도교수님은 LaTeX로 각 논문을 “자신만의 언어”로 다시 풀어 메모해놓더라. 이렇게 하면 논문을 쓸 때도 복붙만 하면 되니 참 편리하다고 한다.
교수님이 원어민이니까 가능한건가…ㅠ
우리가 읽었던 논문을 요약하자면 다음과 같다.
덧) 많은 분들께서 페이스북 댓글들을 통해 본인들의 논문읽기 팁을 공유해주셨다. 여러분들도 본인의 논문읽기 초짜 탈출에 도움이 되었던 팁들이 있으시다면 이 글의 댓글로 함께 공유해주시면 좋을 것 같다. 모두가 함께 만들어가는 대.알.좋…
앗.. 어감이…
(페북댓글 제거)
마지막으로 Figure 2은 그냥 단순히 Table 2처럼 성능만 보여주면 뭔가 심심하니까 통계적으로 약간의 허세를 부린 것이다;;; 이 그래프를 통해 얻은 특별한 인사이트가 있나해서 본문에서 찾아봤지만 별게 없었으니 이 역시도 과감히 패스.
방법과 실험 (Methods & Experiments)
은 생략하도록 하겠다ㅎㅎㅎ 다들 지치셨을 것 같으니…ㅎㅎㅎ
이제까지의 논문읽기가 “무엇을”, “왜”에 대한 내용이었다면, 방법과 실험은 “어떻게”에 대한 본연구의 자세한 설명이다. 이 부분을 읽는데는 왕도가 없다. 수식이 이해가 안되면 글을 뚫어져라 읽고, 글이 이해가 안되면 수식을 뚫어져라 보도록 하자.
“수식이 이해안되면 어쩌나요? 그냥 넘어가나요?”이러한 질문을 많이 받는데, 만약 그 수식의 역할만 이해한다면 디테일을 모르고 넘어가도 상관없다. 중요한건 그 수식이 인풋으로 무엇을 받아 아웃풋으로 무엇을 내놓는지 이해하는 것이다. 그리고 왜 이 수식이 필요한지, 없으면 어떤 일이 벌어지는지를 이해하는 것 역시 중요하다.
만약 이정도까지 이해했다면, 디테일한 수식이 외계어로 써있어 못읽겠다 하더라도 이해한셈 치고 넘어가도 좋다. 전체 논문을 읽는데엔 큰 지장이 없기 때문이다. 중요한건 수식이 아니라 ‘내가 뭘 읽고 있는지’와 ‘내가 왜 읽고 있는지’의 능동적 이해 자세이다. 혼미해지는 정신 꽉 부여잡고 이 논문의 핵심스토리에 집중하자.
마무리
우리는 생전 처음 보는 논문을 함께 읽어봤다. 논문을 다 읽었으면 처음에 시작했던 논문 구조에 맞춰가며 내가 깔끔히 이해했는지 정리하는 단계가 필요하다. 혹자는 노트로 정리하기도 하고, 혹자는 슬라이드로 친구들 앞에 발표를 하기도 한다고 한다. 참고로 나의 지도교수님은 LaTeX로 각 논문을 “자신만의 언어”로 다시 풀어 메모해놓더라. 이렇게 하면 논문을 쓸 때도 복붙만 하면 되니 참 편리하다고 한다.
우리가 읽었던 논문을 요약하자면 다음과 같다.
- 나는 이런 문제를 풀거야 (abstract)
: 웨어러블센서 데이터를 이용해 사람 행동을 인식하는 문제 (HAR) - 사실 이 문제는 이런 동기에서 연구가 시작된건데 (introduction)
: 보통 데이터와는 다른 웨어러블 센서 데이터의 특징들, 그리고 딥러닝 적용에서의 특별 고려사항들 - 관련해서 이런저런 접근들이 있었지 (related works)
: 딥러닝/HAR/딥러닝 모델들에 대한 소개 - 난 이런 새로운 방식으로 접근해보려고 하는데 (method)
: 새로운 regularization 방법 제시 - 정말 이게 잘 먹히는지 실험도 해봤어 (experiment)
: 새로 도입한 regularization 포함, 총 5개 딥러닝 모델의 3가지 데이터에 대한 비교실험 - 이를 통해 이런 사실도 알아냈지만 한계점도 있지 (discussion)
: DNN은 파라메터에 따라 성능이 많이 바뀌지만 CNN/RNN은 그나마 덜 바뀐다는 것. 반복적인 운동 인식에는 CNN이 성능이 좋고, bi-RNN은 레이어 수에 따라 성능변화가 심하다는 것 등등 - 마지막으로 귀찮은 너를 위해 요약 (conclusion)
: 사실 아주 획기적인 논문은 아니야. 힝 속았지?
덧) 많은 분들께서 페이스북 댓글들을 통해 본인들의 논문읽기 팁을 공유해주셨다. 여러분들도 본인의 논문읽기 초짜 탈출에 도움이 되었던 팁들이 있으시다면 이 글의 댓글로 함께 공유해주시면 좋을 것 같다. 모두가 함께 만들어가는 대.알.좋…
(페북댓글 제거)
댓글 없음:
댓글 쓰기