just-data

just Data Lab
  • 홈
  • 태그
  • 방명록

LLM 1

[LLM#2] What? How? BERT

지난 포스팅으로부터 트랜스포머 아키텍처가 인코더와 디코더로 이뤄져 있다는 사실을 확인했습니다. 이때, 트랜스포머 아키텍처를 활용한 모델은 크게 세 가지로 나눌 수 있습니다. 인코더만 활용: 자연어 이해(Natural Language Understanding, NLU)디코더만 활용: 자연어 생성(Natural Language Generation, NLG)인코더와 디코더 모두 활용각 모델들은 서로 다른 장단점이 존재합니다. 각 모델마다 잘 할 수 있는 일이 다르기에 모두 숙지하는 것이 필요합니다. 이번 포스팅에서는 대표적인 구글의 인코더 모델인 BERT에 대해서 알아보도록 하겠습니다. 1. What?구글에서 개발한 BERT(Bidirectional Encoder Representations from Tran..

NLP 2024.12.07
이전
1
다음
더보기
프로필사진

Deep Learning, Machine Learning, Recommender System, master in bigdata, Kyunghee Univ. 2023 ~ 2025

  • 분류 전체보기 (103)
    • paper review (4)
    • reommender system (3)
    • Deep Learning (1)
    • NLP (7)
    • Machine Learning (6)
    • Data preprocessing (6)
    • Git (4)
    • Statistics (2)
    • Mathematics (12)
    • GNN (0)
    • MLOps (20)
      • Docker (17)
      • CI CD (2)
    • SQL (31)
    • Spark (2)
    • Time-Series (5)

Tag

선형대수학, index, mathematics, db optimization, 전처리, Linear Algebra, Dockerfile, container, time series, 빅데이터, Docker, 머신러닝, 추천시스템, mysql, 딥러닝, Database, 도커, sql, Recsys, 컨테이너,

최근글과 인기글

  • 최근글
  • 인기글

Copyright © Kakao Corp. All rights reserved.

티스토리툴바