Nội dung bài viết
© 2025 AI VIET NAM. All rights reserved.
Tác giả: AI VIET NAM (AI VIET NAM)
Keywords: Skip Connection, ResNet, Vanishing Gradient, Deep Learning, Computer Vision
Khi xây dựng các mạng Deep Learning nhiều tầng, người học thường gặp một hiện tượng quen thuộc:
Hiện tượng này được gọi là Vanishing Gradient – vấn đề kinh điển xuất hiện khi số lượng lớp tăng cao. Đây cũng là lý do những kiến trúc như ResNet trở thành bước ngoặt lớn trong Computer Vision.
Một trong những thành phần cốt lõi giúp ResNet hoạt động hiệu quả chính là Skip Connection.
Skip Connection là đường kết nối tắt, đưa thẳng đầu vào của một block tới đầu ra của block đó bằng phép cộng:
Output = F(x) + x
Trong đó:
Thay vì yêu cầu mô hình học toàn bộ ánh xạ phức tạp, Skip Connection cho phép mạng chỉ cần học phần sai lệch F(x) so với đầu vào.
Khi lan truyền ngược, gradient không chỉ đi qua F(x) mà còn đi trực tiếp qua nhánh x.
Điều này tạo nên một “đường tắt” để gradient không bị co nhỏ khi đi qua nhiều lớp.
Tác dụng:
Cách tiếp cận này liên hệ trực tiếp với nhóm kiến thức Deep Learning 1 – layers, initialization, regularization trong Module 7.
Thay vì học H(x), mạng chỉ học F(x) = H(x) – x.
Bài toán trở nên dễ tối ưu hơn khi mục tiêu nằm gần “đường đồng nhất”.
Tầng sâu không phải biến đổi toàn bộ tín hiệu mà chỉ tinh chỉnh, giúp việc học diễn ra ổn định.
Trong mạng sâu, tín hiệu đầu vào thường bị làm yếu hoặc bị biến dạng sau hàng chục phép biến đổi liên tiếp.
Skip Connection giữ lại phiên bản nguyên thủy của x, giúp mô hình:
Điều này liên quan trực tiếp đến nhóm kiến thức Computer Vision trong Module 9 – nơi kiến trúc ResNet là nền tảng của nhiều mô hình hiện đại.
Giả sử bạn huấn luyện một mô hình phân loại ảnh 100 lớp với 50 tầng CNN.
Không sử dụng skip, mô hình:
Khi thêm Skip Connection:
Đây là lý do ResNet có thể lên đến 101, 152, thậm chí 1.000+ lớp mà vẫn huấn luyện được.
Trong dự án Computer Vision thực tế, đặc biệt với dữ liệu phức tạp:
Nhiều hệ thống triển khai trong thực tế (sản phẩm OCR, phân loại, nhận diện khuôn mặt) đều dùng các biến thể của ResNet, vì độ tin cậy và sự ổn định của gradient trong huấn luyện.
Khi nghiên cứu về Skip Connection, người học thường đi qua:
Đây là chuỗi kiến thức nền tảng giúp hiểu rõ vì sao ResNet tạo nên bước ngoặt trong Deep Learning.
Bạn có thể:
Việc tự trải nghiệm sẽ giúp hiểu sâu hơn về bản chất của Skip Connection.
Q1. Skip Connection có cần cho mọi mô hình sâu không?
Không. Nhưng với mạng nhiều tầng, skip giúp mô hình ổn định hơn.
Q2. Skip Connection có làm tăng số tham số của mô hình không?
Không đáng kể, vì nhánh tắt không thêm trọng số.
Q3. Skip Connection có ảnh hưởng tốc độ huấn luyện không?
Có. Thường giúp hội tụ nhanh hơn.
Q4. Skip Connection có chỉ dùng trong ResNet không?
Không. Rất nhiều kiến trúc hiện đại cũng sử dụng skip như U-Net, Transformer mở rộng, DenseNet.
Q1. Con số 0 thì học nổi không?
Ans: Chỉ cần bạn có thời gian học. Điều quan trọng nhất không phải giỏi hay không, mà là có học đều mỗi ngày. Kiến thức – tài liệu – môi trường đã có team lo. Nếu bạn không có thời gian thì nên cân nhắc.
Q2. Ai dạy AIO?
Ans: Đội admin dạy toàn bộ. Admin trực tiếp hướng dẫn và hỗ trợ mọi câu hỏi của bạn trong suốt quá trình học.
Q3. Admin có “xịn” không?
Ans: Admin đều là người làm nghề thật, mỗi người một cách dạy. Quan trọng là bạn cảm thấy hợp cách truyền đạt. Admin không dám nói xịn, chỉ dạy bằng hết sức.
Q4. AIO có gì khác những nơi khác?
Ans: AIO không phải trung tâm. Đây là dự án học tập cộng đồng, được cải tiến qua từng khóa. Tinh thần của AIO: Cùng nhau học – cùng nhau khổ – cùng nhau lớn. Nếu hợp tinh thần đó, bạn sẽ thấy phù hợp.