Nội dung bài viết
© 2025 AI VIET NAM. All rights reserved.
Tác giả: AI VIET NAM (AI VIET NAM)
Keywords: Focal Loss, Object Detection, Mẫu Khó, Loss Function, RetinaNet
Nhiều bạn khi bước vào các bài toán nhận diện vật thể thường thắc mắc vì sao mô hình học rất lâu mà độ chính xác không tăng. Một lý do phổ biến: dữ liệu thường bị lệch về các mẫu dễ. Trong Object Detection, số lượng background luôn vượt trội so với vật thể thật, khiến mô hình chủ yếu “học” background và bỏ qua các mẫu khó. Focal Loss xuất hiện để xử lý điểm này.
Trong phân loại thông thường, Cross-Entropy coi mọi mẫu đóng vai trò gần giống nhau. Khi gặp dữ liệu mất cân bằng — ví dụ: hàng trăm nghìn ô nền background và chỉ vài trăm bounding box thật — các mẫu dễ (ô nền được dự đoán đúng) chiếm ưu thế trong tổng loss. Focal Loss điều chỉnh trọng số theo mức độ “khó” của từng mẫu.
Điểm đặc biệt là Focal Loss không thay đổi cấu trúc mô hình, chỉ thay đổi cách mô hình “chú ý” đến từng mẫu.
Công thức Focal Loss (dạng phổ biến trong RetinaNet) được biểu diễn theo markdown như sau:
Trong đó:
Khi γ tăng, mô hình càng giảm trọng số của các mẫu dễ.
Giả sử một ảnh có 10000 ô background, nhưng chỉ có 5 vật thể thật.
Kết quả là mô hình tập trung hơn vào các vùng chứa vật thể, cải thiện đáng kể chất lượng detection trong những mô hình như RetinaNet.
Trong dự án thực tế, dữ liệu luôn có xu hướng lệch: vật thể nhỏ, bị che khuất, hoặc hiếm gặp thường ít xuất hiện. Khi dùng Cross-Entropy, mô hình dễ bỏ qua các trường hợp này. Focal Loss phù hợp khi:
Những dự án dùng anchor-based hoặc anchor-free như RetinaNet, FCOS, YOLO-series đều có thể hưởng lợi khi dùng Focal Loss hoặc biến thể của nó.
Focal Loss thường được nhắc đến sau khi đã hiểu các nền tảng:
Những nội dung này giúp người học hiểu rõ bản chất của việc “trọng số hóa” lỗi và lý do Focal Loss hiệu quả trong detection.
Bạn có thể thử nghiệm Focal Loss trong một mô hình nhỏ trước, ví dụ trên tập dữ liệu gồm nhiều background và ít vật thể. Việc so sánh giữa Cross-Entropy và Focal Loss ở cùng cấu trúc mô hình sẽ giúp bạn thấy rõ sự khác biệt.
Focal Loss có thay thế Cross-Entropy hoàn toàn không?
Không, chỉ phù hợp khi dữ liệu mất cân bằng mạnh.
Focal Loss có làm mô hình chậm hơn nhiều không?
Không đáng kể vì chỉ thêm vài phép tính đơn giản.
Mọi mô hình Object Detection đều cần Focal Loss không?
Không, tùy vào tỉ lệ positive/negative và kiến trúc.
Focal Loss có cải thiện dự đoán vật thể nhỏ không?
Có, trong nhiều trường hợp giúp mô hình chú ý hơn đến mẫu khó.
Q1. Con số 0 thì học nổi không?
Ans: Chỉ cần bạn có thời gian học. Điều quan trọng nhất không phải giỏi hay không, mà là có học đều mỗi ngày. Kiến thức – tài liệu – môi trường đã có team lo. Nếu bạn không có thời gian thì nên cân nhắc.
Q2. Ai dạy AIO?
Ans: Đội admin dạy toàn bộ. Admin trực tiếp hướng dẫn và hỗ trợ mọi câu hỏi của bạn trong suốt quá trình học.
Q3. Admin có “xịn” không?
Ans: Admin đều là người làm nghề thật, mỗi người một cách dạy. Quan trọng là bạn cảm thấy hợp cách truyền đạt. Admin không dám nói xịn, chỉ dạy bằng hết sức.
Q4. AIO có gì khác những nơi khác?
Ans: AIO không phải trung tâm. Đây là dự án học tập cộng đồng, được cải tiến qua từng khóa. Tinh thần của AIO: Cùng nhau học – cùng nhau khổ – cùng nhau lớn. Nếu hợp tinh thần đó, bạn sẽ thấy phù hợp.