Hidden Dimension trong MLP càng lớn thì khả năng mô hình hóa hàm phức tạp càng như thế nào?

Tác giả: AI VIET NAM (AI VIET NAM)

Keywords: Hidden Dimension, MLP, Function Approximation, Neural Network, Biểu Diễn Hàm

Mở đầu

Người mới học Deep Learning thường đặt câu hỏi: “Tại sao chỉ cần tăng Hidden Dimension trong MLP thì mô hình lại biểu diễn được các hàm phức tạp hơn?”. Đây là một điểm mấu chốt khi bắt đầu làm quen với các mạng Neural từ giai đoạn tiền Deep Learning đến Deep Learning hoàn chỉnh. Hiểu đúng bản chất giúp tránh việc chọn kích thước mạng theo cảm tính hoặc chỉ nhìn vào thông số.

Hidden Dimension là gì?

Trong một MLP (Multilayer Perceptron), mỗi tầng ẩn gồm một số lượng neuron nhất định. Con số này được gọi là Hidden Dimension. Về mặt toán học, mỗi neuron là một phép biến đổi tuyến tính kết hợp hàm kích hoạt phi tuyến. Khi tăng số neuron, ta tăng số lượng biến đổi mà mô hình có thể kết hợp. Điều này mở rộng không gian hàm mà mạng có thể biểu diễn. Nói ngắn gọn: Hidden Dimension càng lớn → không gian biểu diễn (function space) càng rộng.

Vì sao Hidden Dimension lớn giúp mô hình hóa hàm phức tạp?

Mô hình học từ dữ liệu bằng cách xây dựng một hàm ánh xạ từ input đến output. Để mô tả các quan hệ phi tuyến phức tạp hơn, mô hình cần nhiều “khối xây dựng” hơn. Mỗi neuron được xem như một khối tạo hình trong không gian hàm. Khi có nhiều khối hơn:

  • Mạng có thể phân tách không gian tốt hơn
  • Tạo được nhiều vùng phi tuyến
  • Mô tả được các dạng hàm ngoằn ngoèo, nhiều điểm gấp khúc
  • Giảm lỗi xấp xỉ đối với các hàm phức tạp

Trong học thuật, điều này liên quan đến các kết quả nền tảng từ Module Deep Learning 1 và 2 trong AIO: unsupervised map, semi-supervised map và các tính chất xấp xỉ hàm của Neural Networks.

Ví dụ thực tế

Hãy tưởng tượng cần dự đoán nhiệt độ dựa trên nhiều yếu tố như độ ẩm, tốc độ gió, thời gian trong ngày. Mối quan hệ này không tuyến tính.

  • MLP với Hidden Dimension nhỏ chỉ mô tả được mối quan hệ dạng đơn giản.
  • Khi tăng Hidden Dimension, mô hình có thêm “độ linh hoạt”, tạo được bề mặt dự đoán phức tạp hơn, phù hợp hơn với đặc trưng tự nhiên của dữ liệu thời tiết.

Góc nhìn khi làm dự án AI/ML

Trong dự án thực tế, tăng Hidden Dimension không phải lúc nào cũng là giải pháp. Một Hidden Dimension quá lớn dễ dẫn đến:

  • chi phí tính toán tăng
  • rủi ro overfitting
  • thời gian train và validate dài Nhiều nhóm dự án thường kết hợp các hiệu chỉnh từ Module Regularization (Dropout, Weight Decay), hoặc MLOps Series để theo dõi metrics và tránh mô hình phình to không kiểm soát. Việc chọn kích thước phù hợp thường dựa vào:
  • Độ phức tạp dữ liệu
  • Số lượng mẫu
  • Chi phí tính toán
  • Mục tiêu ứng dụng

Liên hệ kiến thức nền

Các giai đoạn từ toán cơ bản → Python → ML cơ bản → Pre-Deep Learning → Deep Learning được nhắc nhiều trong 12 module của AIO. Hidden Dimension được phân tích sâu ở các phần liên quan đến:

  • Function approximation
  • Activation functions
  • Regularization
  • Optimization

Những nội dung này thường xuất hiện từ Module 7–8 khi nói về các cấu trúc mạng và khả năng biểu diễn hàm.

Lời khuyên học thuật

Bạn có thể bắt đầu bằng việc thử MLP với các Hidden Dimension khác nhau và quan sát sự thay đổi của loss. Hoặc tạo một bài toán nhỏ như fitting một hàm sin có nhiễu, thay đổi kích thước mạng để thấy rõ sự khác biệt. Cách này giúp hình dung trực quan bản chất của khả năng xấp xỉ hàm.

Hỏi đáp nhanh

  1. Hidden Dimension lớn có luôn tốt hơn không? Không, vì có thể gây overfitting và tốn tài nguyên.

  2. Hidden Dimension nhỏ có thể học hàm phức tạp không? Khó khăn, vì không gian biểu diễn hạn chế.

  3. Tăng số tầng hay tăng Hidden Dimension mạnh hơn? Tùy vấn đề, nhưng tăng độ sâu thường mang lại khả năng biểu diễn tốt hơn.

  4. Hidden Dimension ảnh hưởng nhiều đến thời gian huấn luyện không? Có, vì số tham số tăng lên.

FAQ về AIO

Q1. Con số 0 thì học nổi không?

Ans: Chỉ cần bạn có thời gian học. Điều quan trọng nhất không phải giỏi hay không, mà là có học đều mỗi ngày. Kiến thức – tài liệu – môi trường đã có team lo. Nếu bạn không có thời gian thì nên cân nhắc.

Q2. Ai dạy AIO?

Ans: Đội admin dạy toàn bộ. Admin trực tiếp hướng dẫn và hỗ trợ mọi câu hỏi của bạn trong suốt quá trình học.

Q3. Admin có “xịn” không?

Ans: Admin đều là người làm nghề thật, mỗi người một cách dạy. Quan trọng là bạn cảm thấy hợp cách truyền đạt. Admin không dám nói xịn, chỉ dạy bằng hết sức.

Q4. AIO có gì khác những nơi khác?

Ans: AIO không phải trung tâm. Đây là dự án học tập cộng đồng, được cải tiến qua từng khóa. Tinh thần của AIO: Cùng nhau học – cùng nhau khổ – cùng nhau lớn. Nếu hợp tinh thần đó, bạn sẽ thấy phù hợp.


Tài nguyên học AI: