machine learning
-
NVDIA A100 GPU vs H100 GPUmachine learning 2024. 2. 3. 13:09
1. 구글 코랩에서 하드웨어 가속기 (특정 작업을 더 빠르게 처리하는 반도체) 중에 필기체인식에 가장 적합한 것은 A100 GPU 이다. A100 GPU는 NVIDIA 의 최신 GPU로, 딥러닝 모델을 학습하거나 실행하는 데에 매우 빠른 성능을 제공한다. 따라서, 필기체 인식 모델을 학습하거나 실행하는 데에 A100 GPU를 사용하면 빠른 결과를 얻을 수 있다. 2. 비용은? 3. A100 GPU을 실제 구입하는 것보다 클라우드로 이용하면 상대적으로 비용 부담 낮아짐 4. H100 GPU (20시간) VS A100 GPU (7일) H100 GPU는 트랜스포머 엔진 (자연어 처리에 효과적인 모델구조) 통한 가속화로 훈련시간을 7일에서 20시간으로 단축
-
인공지능과 반도체는 무슨 관계가 있나?machine learning 2024. 2. 3. 12:58
질문: 인공지능과 반도체는 무슨 관계가 있나요? 답변: (구글 Bard) 인공지능과 반도체는 서로 뗄 수 없는 관계라고 할 수 있습니다. 인공지능은 대량의 데이터를 처리하고 학습해야 하기 때문에, 이를 위해서는 강력한 컴퓨팅 성능이 필요합니다. 반도체는 컴퓨터의 핵심 부품으로 서, 데이터 처리와 연산을 담당합니다. 따라서, 인공지능의 발전을 위해서는 반도체 기술의 발전이 필수적 입니다. 인공지능과 반도체의 관계는 크게 두 가지로 나눌 수 있습니다. 첫 번째는, 반도체 기술의 발전이 인공지능의 발전을 견인하는 것입니다. 반도체 기술이 발전함에 따라, 컴퓨팅 성능이 향상되고, 이에 따라 인공 지능의 학습과 추론 속도가 빨라집니다. 이는 인공지능의 성능 향상으로 이어집니다. 두 번째는, 인공지능의 발전이 반도..
-
(챗GPT 학습) AI 프롬프트와 프롬프트 엔지니어링 | 개념machine learning 2023. 7. 12. 14:16
방대한 양의 데이터를 학습해 새로운 결과물을 창작하는 생성형 AI(Generative Artificial Intelligence). ChatGPT, 미드저니 등 생성형 AI를 활용한 혁신적이고 편리한 서비스가 우리 삶에 잇따라 등장하고 있는데요. 미 하원의원이 ChatGPT가 작성한 원고로 의회에서 연설을 하고, 생성형 AI 서비스가 만든 그림으로 만화를 연재하는 등 사회적으로 이슈가 되는 사례도 이어지고 있습니다. 생성형 AI 서비스가 우리 삶에 미치는 영향이 커지면서 생성형 AI 서비스와 소통할 때 필요한 ‘프롬프트’에 대한 관심도 커졌는데요. 프롬프트와 프롬프트 엔지니어링이 무엇인지 자세히 알아보겠습니다. 프롬프트와 프롬프트 엔지니어링 프롬프트란? 프롬프트(Prompt)는 연극이나 TV쇼를 진행할 ..
-
일론머스크 고마워! 트위터의 추천알고리즘machine learning 2023. 4. 6. 10:22
참고영상: 유튜브 코딩애플 https://youtu.be/zJI4bgEJ8IU 깃허브: GitHub - twitter/the-algorithm: Source code for Twitter's Recommendation Algorithm GitHub - twitter/the-algorithm: Source code for Twitter's Recommendation Algorithm Source code for Twitter's Recommendation Algorithm - GitHub - twitter/the-algorithm: Source code for Twitter's Recommendation Algorithm github.com 공식문서: 논리구조 및 알고리즘 설명 Twitter's Recom..
-
[AI] 어텐션 메커니즘(Attention Mechanism)이란? - 개념 및 예제machine learning 2023. 3. 28. 14:27
어텐션 메커니즘 (Attention Mechanism) seq2seq 모델의 문제점 : 전체 문장에 대해서 context를 단 한 번에 넘겨줌 매 순간마다 데이터를 다 넣어주기 위해 사용 Seq2seq model 전체 문장에 대한 정보를 한꺼번에 벡터 하나로 만들어서 넘겨주니까 token에서의 정보는 하나도 안 남아있고, 전체 문장에 대한 Context만 넘어감 Attention은 Seq2seq model을 보완하고자 만든 것 Attention 쿼리에 대해서 모든 키와의 유사도를 각각 구하고, 유사도를 키와 맵핑되어 있는 각각의 value에 반영 Query : t 시점의 디코더 셀에서의 은닉 상태 Keys : 모든 시점의 인코더 셀의 은닉 상태 Values : 모든 시점의 인코더 셀의 은닉 상태 → At..