[ML/DL Attention] argmax vs. softargmax 너무 대충 알고 있던 그것 | (ft. hardmax / softmax)
Transformer 그리고 Attention 메커니즘을 이해하기 위한 Score vector 만드는 방법 정리. 1. Hard-attention (with argmax ) 2. Soft-attention (with softargmax )
대학원에서 혼자 공부하고 이해한 내용을 공유합니다. Computer Vision을 중심으로 ML/DL 알고리즘은 물론 부족한 CS/CE 베이스와 실무를 위한 MLOps 등등을 정리합니다.