Minh-Duc Bui home pagelight logodark logo
  • Contact
Intro
Deep Learning
Backend
  • Github
  • Linkedin
  • X
  • Transformer
    • Overview
    • Tokenization
    • Word Embedding
    • Self-attention
    • Masked Self-attention
    • Multi-head Attention
    • Positional Encoding
    • LM Head
    • Sample Strategies
    Transformer

    Overview

    Việc nắm vững kiến thức về kiến trúc Transformer là nền tảng thiết yếu cho bất kỳ ai muốn tìm hiểu về AI, đặc biệt là những người muốn đào sâu nghiên cứu trong lĩnh vực này. Transformer đã trở thành một bước đột phá quan trọng, đặt nền móng cho sự phát triển của rất nhiều mô hình AI tiên tiến hiện nay. Trong phần tiếp theo, chúng ta sẽ cùng nhau khám phá chi tiết về Transformer.

    1. Tokenization

    Phân tích và chia nhỏ văn bản thành các token có nghĩa để mô hình có thể xử lý.

    2. Word Embedding

    Chuyển đổi các token thành các vector số học để biểu diễn ngữ nghĩa của từ.

    3. Self-attention

    Cơ chế cho phép mô hình tập trung vào các phần quan trọng của dữ liệu đầu vào.

    4. Masked Self-attention

    Biến thể của Self-attention ngăn mô hình nhìn thấy thông tin trong tương lai.

    5. Multi-head Attention

    Cho phép mô hình học nhiều biểu diễn khác nhau của dữ liệu cùng lúc.

    6. Positional Encoding

    Thêm thông tin về vị trí của từng token trong chuỗi đầu vào.

    LM Head

    Lớp phân loại cuối cùng để dự đoán token tiếp theo.

    7. Sample Strategies

    Các chiến lược lấy mẫu để tạo ra văn bản từ mô hình.

    Was this page helpful?

    Tokenization
    facebookxgithublinkedin
    Powered by Mintlify
    Assistant
    Responses are generated using AI and may contain mistakes.