06/05/2026 – (TưDuyThietKe.Edu.vn) – Trong nhiều dự án đổi mới, Design Thinking (DT) giúp đội ngũ “đi đúng nhu cầu con người”, nhưng đôi khi lại tối ưu cục bộ (một điểm chạm) mà bỏ lỡ tác động dây chuyền của hệ thống. Ngược lại, Systems Thinking (ST) cho ta “bản đồ phức hợp” và các đòn bẩy thay đổi, nhưng thường khó chuyển hóa thành giải pháp cụ thể, thử nhanh, học nhanh. Còn AI (đặc biệt GenAI và agentic AI) mở ra năng lực tăng tốc nghiên cứu, tạo phương án, mô phỏng và tự động hóa—nhưng nếu thiếu quản trị rủi ro, AI dễ dẫn đến sai lệch, thiếu minh bạch, “ảo tưởng” hoặc tác hại xã hội.
Vì vậy, một mô hình kết hợp DT–ST–AI không nên là “ghép ba bộ công cụ”, mà cần một khung vận hành (operating model) giúp tổ chức: 1) Hiểu đúng nhu cầu con người, 2) Thấy đúng cấu trúc hệ thống, và 3) Thiết kế–triển khai AI an toàn, đáng tin, theo vòng lặp học tập liên tục. Cách tiếp cận “socio-technical” (xem AI như một hệ thống xã hội–kỹ thuật) là nền tảng để làm điều đó. [7][8]
1) Ba lớp tư duy – Một vòng lặp vận hành
1.1. Vai trò bổ sung của từng “mảnh ghép”
- Design Thinking: quy trình lặp, lấy người dùng làm trung tâm (Empathize–Define–Ideate–Prototype–Test) để khám phá nhu cầu, tái khung vấn đề và thử nghiệm giải pháp. [6]
- Systems Thinking: nhìn vấn đề như một hệ thống có cấu trúc, phản hồi, độ trễ; tìm “điểm can thiệp” (leverage points) để tạo thay đổi bền vững, tránh hậu quả ngoài ý muốn. [4][5]
- AI: năng lực tăng cường (augmentation) cho nghiên cứu, tổng hợp tri thức, tạo phương án, mô phỏng kịch bản, cá nhân hóa và tự động hóa—nhưng phải đi kèm quản trị rủi ro theo vòng đời. [1][2]
1.2. Nguyên tắc thiết kế mô hình (đề xuất)
- Human-centred by design: hoạt động thiết kế luôn dựa trên hiểu biết tường minh về người dùng, nhiệm vụ và bối cảnh; có đánh giá với người dùng và đội ngũ đa ngành. [3][6]
- System-aware by default: mọi “điểm chạm” đều phải gắn vào bản đồ hệ thống (tác nhân, dòng chảy, luật lệ, phản hồi, độ trễ). [4][5]
- Risk-managed AI lifecycle: AI không chỉ là “mô hình”, mà là một hệ thống được thiết kế–triển khai–giám sát theo chức năng Govern–Map–Measure–Manage. [1]
- Sociotechnical realism: tính công bằng/giải thích không chỉ nằm ở thuật toán, mà phụ thuộc vào quy trình, vai trò con người, quy định và thể chế. [7][8]
- Evidence & learning loops: mọi can thiệp đều có giả thuyết, chỉ số, thử nghiệm và cơ chế học liên tục. [1][6]
2) Khung mô hình tích hợp đề xuất: “Double Loop + Risk Loop”
Bạn có thể hình dung mô hình tích hợp như hai vòng lặp thiết kế (Zoom out/Zoom in) cộng thêm vòng lặp quản trị rủi ro AI bao quanh.
- Vòng lặp 1 (Zoom out – Systems Loop): Hiểu hệ thống – tìm đòn bẩy – dự đoán tác động lan truyền. [4][5]
- Vòng lặp 2 (Zoom in – Design Loop): Thiết kế trải nghiệm/giải pháp – tạo nguyên mẫu – thử nghiệm với người dùng. [6][3]
- Vòng lặp 3 (AI Risk Loop): Quản trị rủi ro – đo lường tin cậy – giám sát sau triển khai. [1][2]
Điểm mấu chốt: DT giúp bạn “làm đúng thứ người dùng cần”; ST giúp bạn “làm đúng thứ hệ thống cần”; AI giúp bạn “làm nhanh và mở rộng”—nhưng chỉ bền khi có quản trị rủi ro theo vòng đời. [1][4]
3) 6 giai đoạn xây dựng mô hình DT–ST–AI (cầm tay chỉ việc)
Giai đoạn 1: Khởi tạo & thiết lập quản trị (Govern)
Mục tiêu: thống nhất mục đích, phạm vi, vai trò, nguyên tắc dữ liệu và rủi ro.
Việc cần làm (tối thiểu):
- Lập AI/Innovation Charter: mục tiêu, giá trị, giới hạn đạo đức, phạm vi hệ thống. [2][1]
- Xác định RACI (ai chịu trách nhiệm, ai phê duyệt, ai tham vấn) cho cả thiết kế và AI. [1]
- Kế hoạch Human-centred design: người dùng/đối tượng bị tác động, cách tham gia và đánh giá. [3]
- “Impact assessment” (đánh giá tác động) để dự báo lợi ích/hệ quả và stakeholder. [9]
Đầu ra gợi ý: Project charter, bản đồ stakeholder cấp cao, nguyên tắc dữ liệu & quyền riêng tư, backlog rủi ro ban đầu. [1][9]
Giai đoạn 2: Khám phá con người + Lắng nghe hệ thống (Empathize + System sensing)
Mục tiêu: thu thập dữ liệu định tính/định lượng về nhu cầu và “tín hiệu” hệ thống.
- DT: phỏng vấn, quan sát, journey map, pain points. [6][3]
- ST: lập system map (tác nhân – dòng thông tin/nguồn lực – điểm nghẽn), tìm vòng phản hồi, độ trễ. [5][4]
- AI hỗ trợ nghiên cứu: tổng hợp tài liệu, phân cụm phản hồi, phát hiện chủ đề; nhưng cần kiểm soát thiên lệch và xác thực nguồn. [10][1]
Đầu ra gợi ý: insight người dùng, hệ thống hiện trạng (as-is), danh sách rủi ro xã hội–kỹ thuật (sociotechnical risks). [7][8]
Giai đoạn 3: Tái khung vấn đề ở cấp hệ thống (Define + Leverage points)
Mục tiêu: chuyển từ “triệu chứng” sang “cấu trúc” và chọn đúng điểm can thiệp.
- Viết problem statement theo góc nhìn con người (DT). [6]
- Dùng ST để xác định leverage points: thay đổi tham số chỉ cho kết quả nhỏ; thay đổi luồng thông tin, luật lệ, mục tiêu và “mô thức” mới tạo chuyển hóa sâu. [4]
- Đồng thời, “Map” trong AI RMF: xác định bối cảnh dùng AI, đối tượng bị tác động, kịch bản lạm dụng, dữ liệu nhạy cảm. [1]
Đầu ra gợi ý: problem portfolio (nhiều “vấn đề con”), ưu tiên theo tác động hệ thống, giả thuyết thay đổi, tiêu chí thành công (outcomes). [4][1]
Giai đoạn 4: Đồng thiết kế giải pháp + kiến trúc hệ thống (Ideate + System redesign)
Mục tiêu: tạo nhiều phương án can thiệp—không chỉ “một sản phẩm”, mà là “gói can thiệp” gồm quy trình–chính sách–công nghệ.
- DT: ideation đa phương án, co-creation với stakeholder. [6][3]
- ST: thiết kế lại cấu trúc phản hồi (ví dụ: thay đổi cách đo KPI, thay đổi luồng thông tin phản hồi từ người dùng, cơ chế phản biện). [4][5]
- AI: xác định vai trò AI trong hệ thống (tự động hóa hay tăng cường), điểm cần “human-in-the-loop”, và chiến lược dữ liệu. [7][1]
Đầu ra gợi ý: service blueprint + system map (to-be), kiến trúc AI (data–model–workflow), quy định vận hành (policies). [3][1]
Giai đoạn 5: Tạo nguyên mẫu – thử nghiệm – đo lường (Prototype/Test + Measure)
Mục tiêu: thử nhanh với người dùng và đo rủi ro/độ tin cậy trước khi mở rộng.
- Prototype không chỉ UI; có thể là quy trình, kịch bản vận hành, mô phỏng chính sách, “concierge MVP”. [6]
- Với AI, “Measure” theo AI RMF: đo độ đúng, độ ổn định, thiên lệch, khả năng giải thích, riêng tư, an toàn. [1]
- Đừng quên “sociotechnical”: đo cả hành vi người dùng, sự phụ thuộc, khả năng phản biện/kháng nghị, và quy trình ra quyết định. [7][8]
Đầu ra gợi ý: prototype + báo cáo test, bảng rủi ro cập nhật, quyết định go/no-go, kế hoạch kiểm soát sau triển khai. [1][7]
Giai đoạn 6: Triển khai – giám sát – học liên tục (Deploy + Manage)
Mục tiêu: đưa vào vận hành thật, giám sát, học và cải tiến vòng đời.
- “Manage” theo AI RMF: cơ chế giám sát drift, phản hồi sự cố, cập nhật mô hình/quy trình. [1]
- Kết hợp quản trị niềm tin–rủi ro–an ninh (AI TRiSM) để giảm rủi ro dữ liệu và hành vi không mong muốn khi AI chạy thực tế. [11]
- Nhìn AI như triển khai “nặng phần xã hội–kỹ thuật”: công sức triển khai trong thực tế thường nằm ở phối hợp quy trình, con người, hạ tầng, chứ không chỉ tinh chỉnh mô hình. [8]
Đầu ra gợi ý: dashboard giám sát, playbook sự cố, cơ chế audit, backlog cải tiến, chu kỳ đánh giá định kỳ. [1][11]

4) Bảng “ghép chuẩn” DT – ST – AI để dễ triển khai
| Giai đoạn | Design Thinking (Zoom in) | Systems Thinking (Zoom out) | AI & Governance (Risk loop) | Deliverables tối thiểu |
|---|---|---|---|---|
| 1. Khởi tạo | Xác định người dùng & mục tiêu | Xác định ranh giới hệ thống | Govern: vai trò, chính sách, impact assessment | Charter, RACI, risk backlog |
| 2. Khám phá | Empathize, journey | System map, vòng phản hồi | Data inventory, rủi ro bối cảnh | Insight + as-is map |
| 3. Định nghĩa | POV/problem statement | Leverage points | Map: use-case, tác động, lạm dụng | Problem portfolio + metrics |
| 4. Ý tưởng | Ideate, co-creation | Redesign cấu trúc/luồng | Kiến trúc AI, HITL | To-be map + solution concepts |
| 5. Thử nghiệm | Prototype/Test | Mô phỏng kịch bản hệ thống | Measure: bias, safety, privacy | Test report + go/no-go |
| 6. Vận hành | Iterate trải nghiệm | Theo dõi phản hồi & hệ quả | Manage + TRiSM giám sát | Monitoring dashboard + playbook |
(Tham chiếu: DT 5 giai đoạn [6]; leverage points [4]; AI RMF [1]; OECD AI principles [2]; sociotechnical lens [7][8].)
5) Ví dụ ngắn (dễ hình dung) – Ứng dụng trong giáo dục/đào tạo nội bộ
Giả sử một trường/đơn vị đào tạo muốn dùng GenAI để “cá nhân hóa học tập”. Nếu chỉ DT, đội ngũ có thể tối ưu trải nghiệm học viên (gợi ý bài, phản hồi nhanh). Nhưng ST sẽ đặt câu hỏi: AI có làm thay đổi động lực học, vai trò giảng viên, cách đánh giá, độ công bằng giữa nhóm học viên? [7] Điểm can thiệp mạnh có thể không phải “thêm tính năng”, mà là thay luồng phản hồi (feedback loops) giữa học viên–giảng viên–nội dung, hay thay đổi quy tắc đánh giá để tránh học lệch. [4] Khi đưa AI vào, cần quản trị rủi ro theo vòng đời: dữ liệu học viên, quyền riêng tư, thiên lệch, an toàn nội dung, và cơ chế khiếu nại/giải thích. [1][2]
6) Những “bẫy” thường gặp khi ghép DT–ST–AI (và cách tránh)
- DT chỉ dừng ở workshop → Khắc phục: gắn deliverables DT vào system map và KPI hệ thống (outcomes). [5][4]
- ST quá “toàn cảnh” nhưng không ra quyết định → Khắc phục: chọn 1–3 leverage points để thử nghiệm bằng prototype cụ thể. [4][6]
- AI làm nhanh nhưng sai → Khắc phục: quy trình Govern–Map–Measure–Manage, kiểm chứng và giám sát. [1]
- Thiếu góc nhìn sociotechnical → Khắc phục: thiết kế “human oversight”, cơ chế kháng nghị, và đo cả hành vi–thể chế. [7][8]
- Không có hệ thống giám sát sau triển khai → Khắc phục: thiết lập monitoring + playbook sự cố + kiểm toán định kỳ. [1][11]
Mô hình đúng là mô hình “vận hành được”
Một mô hình kết hợp Design Thinking, Systems Thinking và AI nên được xây dựng theo hướng vận hành chứ không chỉ “khung khái niệm”: DT dẫn bạn đến nhu cầu thật; ST giúp bạn chọn đúng đòn bẩy để thay đổi bền vững; AI giúp tăng tốc và mở rộng; và AI governance giúp mọi thứ an toàn, minh bạch, đáng tin trong bối cảnh xã hội–kỹ thuật.
Bạn đang triển khai đổi mới (đặc biệt trong giáo dục, dịch vụ công, doanh nghiệp) và cần một bộ khung DT–ST–AI có thể áp dụng ngay (từ workshop đến vận hành, từ prototype đến giám sát), TS. Nguyễn Trung Hòa & Học viện Tư duy thiết kế có thể đồng hành xây dựng lộ trình, đào tạo đội ngũ, và “đóng gói” quy trình triển khai phù hợp bối cảnh Việt Nam—nhanh, chuẩn, và có kiểm soát rủi ro.
Tài liệu tham khảo
[1] National Institute of Standards and Technology. (2023, January 26). Artificial Intelligence Risk Management Framework (AI RMF 1.0). NIST. https://www.nist.gov/itl/ai-risk-management-framework
[2] OECD. (2019, May 22; updated 2024, May). OECD AI Principles / Recommendation on Artificial Intelligence. OECD. https://www.oecd.org/en/topics/ai-principles.html
[3] International Organization for Standardization. (2019). ISO 9241-210:2019 Ergonomics of human-system interaction — Part 210: Human-centred design for interactive systems. ISO. https://www.iso.org/standard/77520.html
[4] Meadows, D. H. (1999). Leverage Points: Places to Intervene in a System. The Sustainability Institute / Donella Meadows Project. https://www.donellameadows.org/wp-content/userfiles/Leverage_Points.pdf
[5] Pourdehnad, J., Wexler, E. R., & Wilson, D. V. (2011). Systems & Design Thinking: A Conceptual Framework for Their Integration. International Society for the Systems Sciences (ISSS) Proceedings. https://repository.upenn.edu/server/api/core/bitstreams/26582a3a-8a8c-41fc-96b5-18d12021c21a/content
[6] Dam, R. F. (2025). The 5 Stages in the Design Thinking Process. Interaction Design Foundation (IxDF). https://ixdf.org/literature/article/5-stages-in-the-design-thinking-process
[7] Kudina, O., & van de Poel, I. (2024). A sociotechnical system perspective on AI. Minds and Machines, 34, Article 21. https://link.springer.com/article/10.1007/s11023-024-09680-2
[8] Walsh, D. (2026, February 24). 5 ‘heavy lifts’ of deploying AI agents. MIT Sloan Management Review / MIT Sloan. https://mitsloan.mit.edu/ideas-made-to-matter/5-heavy-lifts-deploying-ai-agents
[9] Microsoft. (2022, June). Responsible AI Impact Assessment Guide. Microsoft. https://msblogs.thesourcemediaassets.com/sites/5/2022/06/Microsoft-RAI-Impact-Assessment-Guide.pdf
[10] Rosenfeld, H. (2026, April 29). IDEO’s Framework for Using AI in Human-Centered Research. IDEO U. https://www.ideou.com/blogs/inspiration/ai-in-human-centered-research
[11] Gartner. (2024, December 24). AI Trust and AI Risk: Tackling Trust, Risk and Security in AI Models (AI TRiSM). Gartner. https://www.gartner.com/en/articles/ai-trust-and-ai-risk
