느낀 점

프로젝트에 대한 자세한 내용은 Wrap-up Report에 작성했습니다.

전적으로 Team 덕분에 공동 1등의 Score로 대회를 마무리 지을 수 있었다. 개인 Score도 4등이었으나, 사실 이 조차도 Team의 Idea와 Code로 이루어진 결과물이다. 1등이라는 이름 아래에 Solution 발표를 했는데, 내가 이걸 해도 되나 싶은 생각도 들었다. 다행히도 많은 캠퍼분들이 호응해주셨고, Master께서도 좋은 피드백을 주셨던 덕분에 걱정이 조금 덜어졌다.

최종 Solution 발표에 대한 Master 의견은 다음과 같았다.

  1. Team끼리 앙상블을 수행하는 것은 Kaggle 등에서 자주 활용하는 방법이다. 이를 적용하고자 한 것은 좋은 접근 방법이었다.
  1. Data의 특성에 맞춰서 Loss Function을 재정의 한 것도 좋은 방법이었다.
  1. BERT 구조의 Model이 Fine Tuning 시에 Masking을 활용하지 못하는 것이 비판점 중 하나인데, Random Masking을 적용한 것은 좋은 방법이었다.
  1. Subject와 Object를 기준으로 문장을 잘라내는 방법은 Master도 생각해보지 못했던 참신한 방법이었다.
  1. Random Switch는 근래 카카오에서 발표한 방법 중의 하나로 실제로 Sentence to Vector에 적용하는 방법이다. 단, 문장 내에서 Dependence 관계를 파악하고 이를 적용했으면 더 좋은 방법이 됐을 것 같다.
  1. 특정 Class에 Weight를 더하는 방법도, 실제로 Imbalanced Data에 자주 활용하는 방법이다.
  1. R-BERT의 구조를 구현한 점이 좋았다. Model에게 더 많은 Feature를 제공할 수 있는 방법이었다.
  1. Back Translation은 단순한 Paraphrazing에 불과했던 것 같다. 이는 큰 효과를 얻기 어려웠을 것이다. Generation Model을 통해 문장을 생성하는 방법도 활용해 볼 수 있었을 것 같다.

'네이버 부스트캠프 AI Tech' 카테고리의 다른 글

[P3] Day 61 (21.04.26)  (0) 2021.06.26
[P2] Relation Extraction Competition Wrap-up Report  (0) 2021.04.26
[P2] Day 59  (0) 2021.04.26
[P2] Day 58  (0) 2021.04.26
[P2] Day 57  (0) 2021.04.26

+ Recent posts