machine learning(66)
-
딥러닝 이용한 검색고도화 기획안2 : click model
ClickModels ClickModels is a small set of Python scripts for the user click models initially developed at Yandex. A Click Model is a probabilistic graphical model used to predict search engine click data from past observations. This project is aimed to deal with click models used in Information Retrieval (see next section) and intended to be easy-to-read and easy-to-modify. If it's not, please l..
2023.01.13 -
딥러닝을 이용한 검색 고도화 기획안1 : ColBERT를 이용한 검색결과 랭킹모델 재고
나중에 시간 날 때 기술검토 예정 검색 결과 랭킹모델 1. 네이버 deview2021 대기업은 다르군... 300 억 벡터를 서빙하라! 네이버 검색은 ColBERT 벡터 유사도 검색 도전 중 (naver.com) 300 억 벡터를 서빙하라! 네이버 검색은 ColBERT 벡터 유사도 검색 도전 중 NAVER Engineering | 반정호/전보성 - 300 억 벡터를 서빙하라! 네이버 검색은 ColBERT 벡터 유사도 검색 도전 중 tv.naver.com Colbert – bert 기반이나 검색에 특화된 알고리즘인듯 함. 스탠포드 2. 깃허브 소스 stanford-futuredata/ColBERT: ColBERT: state-of-the-art neural search (SIGIR'20, TACL'21, ..
2023.01.13 -
자연어와 트랜스포머, BERT, GPT
자연어와 트랜스포머, BERT, GPT 출처: 자연어와 트랜스포머, BERT, GPT – 테스트웍스 (testworks.co.kr) 자연어와 트랜스포머, BERT, GPT – 테스트웍스 사람과 동물의 가장 큰 차이점은 무엇일까요? 세심한 동작이 가능한 손, 보이지 않는 무언가를 믿을 수 있는 신앙심, 실존하지 않는 개념을 약속하고 지키는 법 등… 얼핏 생각하기에도 사람과 blog.testworks.co.kr 자연어와 트랜스포머, BERT, GPT Testworks2022년 04월 26일 자연어 처리 분야를 양분하고 있는 BERT와 GPT, 그리고 이들을 탄생시킨 선조격 트랜스포머에 대해 알아봅니다. 사람과 동물의 가장 큰 차이점은 무엇일까요? 세심한 동작이 가능한 손, 보이지 않는 무언가를 믿을 수 있는..
2023.01.13 -
자연어 처리 - Transformer, Bert, GPT-3
1. Transformer . 자연어 처리 분야에서 기존 RNN 계열의 모델들이 갖고 있던 문제를 해결해줌 . 기존의 순차적인 연산에서 벗어나 병렬처리가 가능한 모델로 우수한 성능을 보임 . Multi-head self-attention을 이용해 순차적 연산을 줄이고, 더 많은 단어들 간 dependency를 모델링하는 게 핵심 . 대표적인 모델이 BERT (Bidirectional Encoder Representations from Transformers) . 2020년에는 기존 GPT 모델의 크기를 비약적으로 키운 GPT-3가 등장 . BERT와 달리 GPT-3는 디코더 기반 fine-tuning이 필요 없음 . Few-Shot Learning만으로도 응용 태스크에서 우수한 성능을 달성함 2. 기계번..
2023.01.13 -
삼성sds - korean albert 자료
ppt 잘하시는군
2022.06.13 -
네이버 뉴스 추천 알고리즘에 대해 (QnA)
https://m.blog.naver.com/naver_search/222439522292 네이버 뉴스 추천 알고리즘에 대해 (QnA) AiRS 알고리즘 관련해 사용자의 문의가 많았던 내용 위주로 다음과 같은 QnA를 선정했습니다. 해당 내... blog.naver.com
2022.05.27