Bạn dùng ChatGPT/LLM mỗi ngày nhưng:
Hỏi một câu rất chung → nhận câu trả lời… cũng rất chung.
Muốn output “ra việc” nhưng mô hình cứ trả lời kiểu sách giáo khoa.
Thấy người khác prompt vài câu là ra thứ họ cần, còn bạn thì sửa hoài không trúng.
Đa phần sự khác biệt nằm ở cách đặt câu hỏi – chính là Prompt Engineering.
Trong bài này, bạn sẽ:
Hiểu Prompt Engineering theo cách dễ nhất cho Newbie & Non-Tech.
Biết cấu trúc của một prompt “xịn”.
Tránh 4 lỗi prompt phổ biến khiến ChatGPT trả lời kém.
Áp dụng các pattern prompt hiệu quả.
Biết Prompt Engineering nằm ở đâu trong lộ trình AIO 1 năm của AI VIET NAM.
Prompt Engineering là gì?
Prompt Engineering = nghệ thuật + kỹ thuật mô tả yêu cầu đủ rõ ràng để LLM hiểu đúng bối cảnh, nhiệm vụ và kỳ vọng của bạn.
Ví dụ prompt “chung chung”:
“Viết giúp tôi một bài về AI.”
Mô hình sẽ trả lời y như một bài báo tổng hợp cơ bản.
Còn prompt có kỹ thuật:
“Bạn là copywriter của trung tâm đào tạo AI cho người mới tại Việt Nam.
Hãy viết bài blog ~1500 từ giải thích Học AI cần biết những gì? , giọng văn thân thiện, nhiều ví dụ, có phần FAQ cuối.
Định dạng Markdown (H2/H3 rõ ràng).”
Kết quả: đúng tông – đúng bối cảnh – đúng mục tiêu.
Prompt Engineering không phải “hack” mô hình , mà là:
Giảm việc phải sửa đi sửa lại
Tiết kiệm thời gian
Nâng chất lượng output
Vì sao người mới nên học Prompt Engineering?
✔ Tăng năng suất cá nhân gấp nhiều lần
Viết email, báo cáo, nội dung marketing
Tóm tắt tài liệu
Lập kế hoạch học tập, công việc
Sinh code & debug
✔ Biết giới hạn của LLM
Bạn hiểu LLM không biết hết , và biết cách cung cấp thêm dữ liệu/bối cảnh khi cần.
✔ Là tiền đề để dùng LLM nâng cao
Nếu sau này bạn:
Làm chatbot nội bộ
Làm RAG
Gọi API LLM trong ứng dụng
Làm Data/AI có dùng GenAI
→ Prompt Engineering là kỹ năng nền tảng.
5 thành phần tạo nên một prompt “xịn”
Một prompt tốt thường có cấu trúc rõ ràng với 5 phần:
1. Role – Vai trò
Cho mô hình biết nó đang đóng vai gì:
“Bạn là giảng viên AI…”
“Bạn là chuyên gia growth marketing…”
“Bạn là mentor hướng nghiệp…”
Giúp mô hình chọn đúng giọng văn & góc nhìn.
2. Context – Bối cảnh
Thông tin nền giúp mô hình hiểu môi trường bạn đang làm:
Người đọc là ai?
Mục đích gì?
Dùng ở đâu?
Ví dụ:
“Đối tượng là người mới hoàn toàn, chủ yếu dân văn phòng Việt Nam.”
3. Task – Nhiệm vụ
Cụ thể bạn muốn mô hình làm gì:
Viết blog
Giải thích
Liệt kê
Tóm tắt
Phân tích
Càng rõ càng tốt.
4. Output format – Định dạng đầu ra
Nhiều người bỏ qua → output khó dùng.
Ví dụ:
“Định dạng Markdown.”
“Cho vào bảng 3 cột: Khái niệm – Giải thích – Ví dụ.”
“Trả lời tối đa 300 từ.”
5. Constraints & Examples – Ràng buộc & ví dụ
Giới hạn độ dài
Cấm dùng một số kiểu văn phong
Đưa ví dụ mẫu để mô hình “bắt sóng” style
Những sai lầm phổ biến khi dùng ChatGPT/LLM
❌ 1. Hỏi quá chung, không có bối cảnh
→ LLM chỉ trả lời những điều ai cũng biết.
❌ 2. Không nói rõ muốn output dạng gì
→ Bạn muốn bảng nhưng nhận về đoạn văn dài.
❌ 3. Dồn quá nhiều thông tin vào một prompt
→ Mô hình dễ bỏ sót ý.
Cách tốt hơn: chia từng phần → tóm tắt → tổng hợp.
❌ 4. Không tận dụng hội thoại nhiều bước
Nhiều người cứ dùng “New Chat” liên tục.
Trong khi workflow hiệu quả nhất:
Bước 1: yêu cầu mô hình hỏi lại
Bước 2: refine
Bước 3: mới tạo output
LLM được thiết kế cho hội thoại liên tục – dùng đúng, hiệu quả tăng mạnh.
3 pattern Prompt Engineering dễ áp dụng – hiệu quả cao
Pattern 1: “Hỏi ngược lại trước khi trả lời”