Prompt Engineering là gì? Cách hỏi LLM để làm việc hiệu quả hơn (dành cho người mới)

Tác giả: AI VIET NAM (kỹ năng prompt)

Keywords: kỹ năng prompt

Bạn dùng ChatGPT/LLM mỗi ngày nhưng:

  • Hỏi một câu rất chung → nhận câu trả lời… cũng rất chung.
  • Muốn output “ra việc” nhưng mô hình cứ trả lời kiểu sách giáo khoa.
  • Thấy người khác prompt vài câu là ra thứ họ cần, còn bạn thì sửa hoài không trúng.

Đa phần sự khác biệt nằm ở cách đặt câu hỏi – chính là Prompt Engineering.

Trong bài này, bạn sẽ:

  • Hiểu Prompt Engineering theo cách dễ nhất cho Newbie & Non-Tech.
  • Biết cấu trúc của một prompt “xịn”.
  • Tránh 4 lỗi prompt phổ biến khiến ChatGPT trả lời kém.
  • Áp dụng các pattern prompt hiệu quả.
  • Biết Prompt Engineering nằm ở đâu trong lộ trình AIO 1 năm của AI VIET NAM.

Prompt Engineering là gì?

Prompt Engineering = nghệ thuật + kỹ thuật mô tả yêu cầu đủ rõ ràng để LLM hiểu đúng bối cảnh, nhiệm vụ và kỳ vọng của bạn.

Ví dụ prompt “chung chung”:

“Viết giúp tôi một bài về AI.”

Mô hình sẽ trả lời y như một bài báo tổng hợp cơ bản.

Còn prompt có kỹ thuật:

“Bạn là copywriter của trung tâm đào tạo AI cho người mới tại Việt Nam.
Hãy viết bài blog ~1500 từ giải thích Học AI cần biết những gì?, giọng văn thân thiện, nhiều ví dụ, có phần FAQ cuối.
Định dạng Markdown (H2/H3 rõ ràng).”

Kết quả: đúng tông – đúng bối cảnh – đúng mục tiêu.

Prompt Engineering không phải “hack” mô hình, mà là:

  • Giảm việc phải sửa đi sửa lại
  • Tiết kiệm thời gian
  • Nâng chất lượng output

Vì sao người mới nên học Prompt Engineering?

✔ Tăng năng suất cá nhân gấp nhiều lần

  • Viết email, báo cáo, nội dung marketing
  • Tóm tắt tài liệu
  • Lập kế hoạch học tập, công việc
  • Sinh code & debug

✔ Biết giới hạn của LLM

Bạn hiểu LLM không biết hết, và biết cách cung cấp thêm dữ liệu/bối cảnh khi cần.

✔ Là tiền đề để dùng LLM nâng cao

Nếu sau này bạn:

  • Làm chatbot nội bộ
  • Làm RAG
  • Gọi API LLM trong ứng dụng
  • Làm Data/AI có dùng GenAI

→ Prompt Engineering là kỹ năng nền tảng.


5 thành phần tạo nên một prompt “xịn”

Một prompt tốt thường có cấu trúc rõ ràng với 5 phần:

1. Role – Vai trò

Cho mô hình biết nó đang đóng vai gì:

  • “Bạn là giảng viên AI…”
  • “Bạn là chuyên gia growth marketing…”
  • “Bạn là mentor hướng nghiệp…”

Giúp mô hình chọn đúng giọng văn & góc nhìn.


2. Context – Bối cảnh

Thông tin nền giúp mô hình hiểu môi trường bạn đang làm:

  • Người đọc là ai?
  • Mục đích gì?
  • Dùng ở đâu?

Ví dụ:

“Đối tượng là người mới hoàn toàn, chủ yếu dân văn phòng Việt Nam.”


3. Task – Nhiệm vụ

Cụ thể bạn muốn mô hình làm gì:

  • Viết blog
  • Giải thích
  • Liệt kê
  • Tóm tắt
  • Phân tích

Càng rõ càng tốt.


4. Output format – Định dạng đầu ra

Nhiều người bỏ qua → output khó dùng.

Ví dụ:

  • “Định dạng Markdown.”
  • “Cho vào bảng 3 cột: Khái niệm – Giải thích – Ví dụ.”
  • “Trả lời tối đa 300 từ.”

5. Constraints & Examples – Ràng buộc & ví dụ

  • Giới hạn độ dài
  • Cấm dùng một số kiểu văn phong
  • Đưa ví dụ mẫu để mô hình “bắt sóng” style

Những sai lầm phổ biến khi dùng ChatGPT/LLM

❌ 1. Hỏi quá chung, không có bối cảnh

→ LLM chỉ trả lời những điều ai cũng biết.

❌ 2. Không nói rõ muốn output dạng gì

→ Bạn muốn bảng nhưng nhận về đoạn văn dài.

❌ 3. Dồn quá nhiều thông tin vào một prompt

→ Mô hình dễ bỏ sót ý.

Cách tốt hơn: chia từng phần → tóm tắt → tổng hợp.

❌ 4. Không tận dụng hội thoại nhiều bước

Nhiều người cứ dùng “New Chat” liên tục.
Trong khi workflow hiệu quả nhất:

  • Bước 1: yêu cầu mô hình hỏi lại
  • Bước 2: refine
  • Bước 3: mới tạo output

LLM được thiết kế cho hội thoại liên tục – dùng đúng, hiệu quả tăng mạnh.


3 pattern Prompt Engineering dễ áp dụng – hiệu quả cao

Pattern 1: “Hỏi ngược lại trước khi trả lời”