Nội dung bài viết
© 2025 AI VIET NAM. All rights reserved.
Tác giả: AI VIET NAM (AI VIET NAM)
Keywords: Hidden Dimension, MLP, Function Approximation, Neural Network, Biểu Diễn Hàm
Người mới học Deep Learning thường đặt câu hỏi: “Tại sao chỉ cần tăng Hidden Dimension trong MLP thì mô hình lại biểu diễn được các hàm phức tạp hơn?”. Đây là một điểm mấu chốt khi bắt đầu làm quen với các mạng Neural từ giai đoạn tiền Deep Learning đến Deep Learning hoàn chỉnh. Hiểu đúng bản chất giúp tránh việc chọn kích thước mạng theo cảm tính hoặc chỉ nhìn vào thông số.
Trong một MLP (Multilayer Perceptron), mỗi tầng ẩn gồm một số lượng neuron nhất định. Con số này được gọi là Hidden Dimension. Về mặt toán học, mỗi neuron là một phép biến đổi tuyến tính kết hợp hàm kích hoạt phi tuyến. Khi tăng số neuron, ta tăng số lượng biến đổi mà mô hình có thể kết hợp. Điều này mở rộng không gian hàm mà mạng có thể biểu diễn. Nói ngắn gọn: Hidden Dimension càng lớn → không gian biểu diễn (function space) càng rộng.
Mô hình học từ dữ liệu bằng cách xây dựng một hàm ánh xạ từ input đến output. Để mô tả các quan hệ phi tuyến phức tạp hơn, mô hình cần nhiều “khối xây dựng” hơn. Mỗi neuron được xem như một khối tạo hình trong không gian hàm. Khi có nhiều khối hơn:
Trong học thuật, điều này liên quan đến các kết quả nền tảng từ Module Deep Learning 1 và 2 trong AIO: unsupervised map, semi-supervised map và các tính chất xấp xỉ hàm của Neural Networks.
Hãy tưởng tượng cần dự đoán nhiệt độ dựa trên nhiều yếu tố như độ ẩm, tốc độ gió, thời gian trong ngày. Mối quan hệ này không tuyến tính.
Trong dự án thực tế, tăng Hidden Dimension không phải lúc nào cũng là giải pháp. Một Hidden Dimension quá lớn dễ dẫn đến:
Các giai đoạn từ toán cơ bản → Python → ML cơ bản → Pre-Deep Learning → Deep Learning được nhắc nhiều trong 12 module của AIO. Hidden Dimension được phân tích sâu ở các phần liên quan đến:
Những nội dung này thường xuất hiện từ Module 7–8 khi nói về các cấu trúc mạng và khả năng biểu diễn hàm.
Bạn có thể bắt đầu bằng việc thử MLP với các Hidden Dimension khác nhau và quan sát sự thay đổi của loss. Hoặc tạo một bài toán nhỏ như fitting một hàm sin có nhiễu, thay đổi kích thước mạng để thấy rõ sự khác biệt. Cách này giúp hình dung trực quan bản chất của khả năng xấp xỉ hàm.
Hidden Dimension lớn có luôn tốt hơn không? Không, vì có thể gây overfitting và tốn tài nguyên.
Hidden Dimension nhỏ có thể học hàm phức tạp không? Khó khăn, vì không gian biểu diễn hạn chế.
Tăng số tầng hay tăng Hidden Dimension mạnh hơn? Tùy vấn đề, nhưng tăng độ sâu thường mang lại khả năng biểu diễn tốt hơn.
Hidden Dimension ảnh hưởng nhiều đến thời gian huấn luyện không? Có, vì số tham số tăng lên.
Q1. Con số 0 thì học nổi không?
Ans: Chỉ cần bạn có thời gian học. Điều quan trọng nhất không phải giỏi hay không, mà là có học đều mỗi ngày. Kiến thức – tài liệu – môi trường đã có team lo. Nếu bạn không có thời gian thì nên cân nhắc.
Q2. Ai dạy AIO?
Ans: Đội admin dạy toàn bộ. Admin trực tiếp hướng dẫn và hỗ trợ mọi câu hỏi của bạn trong suốt quá trình học.
Q3. Admin có “xịn” không?
Ans: Admin đều là người làm nghề thật, mỗi người một cách dạy. Quan trọng là bạn cảm thấy hợp cách truyền đạt. Admin không dám nói xịn, chỉ dạy bằng hết sức.
Q4. AIO có gì khác những nơi khác?
Ans: AIO không phải trung tâm. Đây là dự án học tập cộng đồng, được cải tiến qua từng khóa. Tinh thần của AIO: Cùng nhau học – cùng nhau khổ – cùng nhau lớn. Nếu hợp tinh thần đó, bạn sẽ thấy phù hợp.