08/05/2026 – (TưDuyThietKe.Edu.vn) – Trong làn sóng AI tạo sinh, nhiều tổ chức bắt đầu cuộc đua bằng câu hỏi “chúng ta có thể dùng AI để làm gì?”. Nhưng với Human-Centered AI, câu hỏi đúng hơn phải là: “con người đang gặp vấn đề gì, và AI có thể giúp họ giải quyết vấn đề đó một cách an toàn, công bằng, dễ hiểu và có trách nhiệm như thế nào?”. Cách tiếp cận này đưa AI trở lại đúng vai trò của nó: không phải thay thế con người một cách mù quáng, mà là mở rộng năng lực, hỗ trợ quyết định, giảm tải công việc lặp lại và tạo ra trải nghiệm tốt hơn cho người dùng, người học, khách hàng, nhân viên và cộng đồng.
Human-Centered AI là gì?
Human-Centered AI, có thể hiểu là AI lấy con người làm trung tâm, là cách tiếp cận phát triển và triển khai trí tuệ nhân tạo trong đó nhu cầu, giá trị, quyền lợi, sự an toàn và trải nghiệm của con người được đặt ở trung tâm của toàn bộ vòng đời thiết kế. Theo Stanford Institute for Human-Centered Artificial Intelligence, Human-Centered AI ưu tiên nhu cầu, giá trị và phúc lợi của con người trong quá trình phát triển và triển khai hệ thống AI; đồng thời nhấn mạnh sự cộng tác giữa con người và máy móc thay vì để công nghệ vận hành tách rời khỏi bối cảnh xã hội [1].
Điểm quan trọng ở đây là Human-Centered AI không chỉ là một khẩu hiệu đạo đức. Nó là một triết lý thiết kế, một phương pháp phát triển sản phẩm và cũng là một khung quản trị rủi ro. Một hệ thống AI có thể rất mạnh về mặt kỹ thuật, nhưng nếu người dùng không hiểu nó, không tin nó, không kiểm soát được nó, hoặc bị tổn hại bởi những quyết định sai lệch của nó, thì hệ thống đó chưa thể xem là thành công. Thành công của AI vì vậy không chỉ được đo bằng độ chính xác của mô hình, tốc độ xử lý hay khả năng tự động hóa, mà còn bằng mức độ nó giúp con người ra quyết định tốt hơn, làm việc hiệu quả hơn và sống có phẩm giá hơn.
Trong thực tiễn, Human-Centered AI nằm ở giao điểm của nhiều lĩnh vực: trí tuệ nhân tạo, thiết kế trải nghiệm người dùng, tâm lý học, đạo đức học, khoa học dữ liệu, quản trị tổ chức, pháp lý và chính sách công. Chính tính liên ngành này làm cho Human-Centered AI trở thành một định hướng đặc biệt quan trọng trong bối cảnh AI đang đi vào giáo dục, y tế, truyền thông, tài chính, hành chính công và quản trị doanh nghiệp.
Vì sao AI phải bắt đầu từ nhu cầu con người?
Một lỗi phổ biến trong các dự án AI là bắt đầu bằng công nghệ. Tổ chức nhìn thấy một mô hình mới, một chatbot mới, một công cụ tự động hóa mới, rồi vội vàng tìm cách áp dụng. Cách tiếp cận này dễ tạo ra những sản phẩm “có AI” nhưng không giải quyết được vấn đề thật. Người dùng có thể thấy hệ thống phức tạp hơn, khó kiểm soát hơn, thiếu minh bạch hơn hoặc đơn giản là không phù hợp với thói quen làm việc hằng ngày của họ.
Human-Centered AI đảo ngược trình tự đó. Thay vì hỏi AI có thể làm gì, nhóm thiết kế bắt đầu bằng việc quan sát con người đang sống, học tập, làm việc và ra quyết định như thế nào. Họ tìm hiểu nỗi đau, động lực, giới hạn, niềm tin, năng lực số và bối cảnh sử dụng của từng nhóm người. Chỉ khi hiểu rõ vấn đề con người, nhóm mới quyết định liệu AI có nên được sử dụng hay không, sử dụng ở đâu, với mức độ tự động hóa nào và cần cơ chế kiểm soát ra sao.
Google People + AI Guidebook cũng nhấn mạnh rằng thiết kế sản phẩm AI lấy con người làm trung tâm cần bắt đầu bằng việc hiểu trải nghiệm vấn đề của người dùng để quyết định có nên dùng AI và dùng AI như thế nào [2]. Đây là một điểm rất quan trọng: không phải mọi vấn đề đều cần AI. Có những vấn đề chỉ cần cải tiến quy trình, thiết kế lại biểu mẫu, đào tạo người dùng hoặc thay đổi chính sách. AI chỉ nên được đưa vào khi nó thật sự tạo ra giá trị vượt trội so với các phương án đơn giản hơn.
Khác biệt giữa AI lấy công nghệ làm trung tâm và AI lấy con người làm trung tâm
Để hiểu rõ hơn giá trị của Human-Centered AI, cần phân biệt nó với cách tiếp cận lấy công nghệ làm trung tâm. Cách tiếp cận công nghệ thường xem AI như lời giải có sẵn, sau đó cố gắng tìm bài toán để áp dụng. Ngược lại, cách tiếp cận lấy con người làm trung tâm xem AI như một khả năng cần được thiết kế cẩn trọng trong hệ sinh thái con người, quy trình, dữ liệu, niềm tin và trách nhiệm.
| Tiêu chí | AI lấy công nghệ làm trung tâm | Human-Centered AI |
|---|---|---|
| Điểm khởi đầu | Mô hình, thuật toán, công cụ AI mới | Nhu cầu, nỗi đau, bối cảnh và giá trị của con người |
| Câu hỏi chính | “AI này làm được gì?” | “Con người cần gì và AI có nên tham gia không?” |
| Tiêu chí thành công | Độ chính xác, tốc độ, mức tự động hóa | Hiệu quả, an toàn, tin cậy, dễ hiểu, trao quyền |
| Vai trò con người | Người dùng thích nghi với hệ thống | Hệ thống thích nghi với con người |
| Quản trị rủi ro | Thường xử lý sau khi triển khai | Được tích hợp từ giai đoạn thiết kế |
| Cơ chế kiểm soát | Tự động hóa tối đa nếu có thể | Tự động hóa phù hợp, có giám sát và quyền can thiệp |
Bảng so sánh này cho thấy Human-Centered AI không chống lại công nghệ. Ngược lại, nó giúp công nghệ trở nên đáng tin cậy và có khả năng được chấp nhận rộng rãi hơn. Một hệ thống AI tốt không nhất thiết là hệ thống tự động hóa mọi thứ, mà là hệ thống biết khi nào nên đề xuất, khi nào nên giải thích, khi nào nên hỏi lại và khi nào cần để con người quyết định.
Năm nguyên tắc cốt lõi khi thiết kế Human-Centered AI
Thiết kế AI lấy con người làm trung tâm cần được cụ thể hóa thành các nguyên tắc vận hành. Nếu không, khái niệm “lấy con người làm trung tâm” rất dễ trở thành một tuyên bố đẹp nhưng khó triển khai. Dưới đây là năm nguyên tắc có thể dùng như khung định hướng cho các nhóm giáo dục, doanh nghiệp, cơ quan nhà nước và tổ chức xã hội khi phát triển giải pháp AI.

Human-Centered AI bắt đầu từ việc thấu hiểu con người trước khi lựa chọn mô hình, dữ liệu và công nghệ
1. Bắt đầu từ vấn đề thật, không bắt đầu từ công cụ
Một dự án AI nên bắt đầu bằng nghiên cứu người dùng và xác định vấn đề. Người học đang mất nhiều thời gian ở đâu? Giáo viên đang quá tải vì loại công việc nào? Cán bộ hành chính gặp khó khăn ở bước nào? Khách hàng thường hiểu sai thông tin nào? Những câu hỏi này giúp nhóm thiết kế tránh rơi vào “bẫy trình diễn công nghệ”, tức là tạo ra sản phẩm trông hiện đại nhưng không tạo ra giá trị thực.
Trong tư duy thiết kế, giai đoạn thấu cảm và xác định vấn đề có vai trò quyết định. Với AI, vai trò này càng quan trọng hơn vì một quyết định sai ở đầu vào có thể kéo theo nhiều rủi ro ở quy mô lớn. Nếu bài toán được định nghĩa sai, AI có thể tối ưu hóa sai mục tiêu, củng cố định kiến sẵn có hoặc làm tăng gánh nặng cho chính những người mà nó được kỳ vọng hỗ trợ.
2. Tăng cường năng lực con người thay vì thay thế con người bằng mọi giá
Human-Centered AI không xem con người là điểm yếu cần loại bỏ khỏi hệ thống. Trái lại, con người là chủ thể hiểu bối cảnh, giá trị, ngoại lệ và hệ quả xã hội của quyết định. AI nên được thiết kế để hỗ trợ con người phân tích thông tin, phát hiện mẫu dữ liệu, gợi ý phương án và giảm tải thao tác lặp lại, nhưng vẫn giữ con người trong vòng ra quyết định đối với các tình huống có tác động lớn.
OECD.AI khi giới thiệu khung Human-Centered Artificial Intelligence nhấn mạnh sự kết hợp giữa mức độ kiểm soát cao của con người và mức độ tự động hóa cao của máy tính nhằm tăng hiệu suất con người, đồng thời hỗ trợ năng lực tự chủ, sáng tạo và trách nhiệm [3]. Điều này đặc biệt quan trọng trong giáo dục, y tế, pháp lý và quản trị công, nơi một đề xuất sai của AI có thể ảnh hưởng trực tiếp đến quyền lợi và cơ hội của con người.
3. Thiết kế để người dùng hiểu, tin và kiểm soát được AI
Một hệ thống AI “thông minh” nhưng khó hiểu có thể tạo ra sự phụ thuộc nguy hiểm. Người dùng có thể tin quá mức vào AI, sao chép kết quả mà không kiểm tra, hoặc ngược lại, mất niềm tin hoàn toàn vì không hiểu hệ thống hoạt động ra sao. Vì vậy, Human-Centered AI cần quan tâm đến khả năng giải thích, mô hình tinh thần của người dùng và cơ chế phản hồi.
Google People + AI Guidebook đề xuất các nhóm thiết kế cần giúp người dùng xây dựng và hiệu chỉnh niềm tin vào AI thông qua giải thích, kỳ vọng rõ ràng, phản hồi và cơ chế kiểm soát [2]. Trong một chatbot tư vấn học tập, chẳng hạn, hệ thống không chỉ đưa ra câu trả lời mà còn nên cho biết mức độ chắc chắn, nguồn tham khảo, giới hạn của phản hồi và cách người dùng có thể kiểm tra lại thông tin. Niềm tin không đến từ việc AI tỏ ra toàn năng, mà đến từ việc AI minh bạch về năng lực và giới hạn của chính nó.
4. Quản trị rủi ro, thiên lệch và quyền riêng tư ngay từ đầu
AI học từ dữ liệu, nhưng dữ liệu không bao giờ hoàn toàn trung tính. Dữ liệu có thể phản ánh bất bình đẳng xã hội, định kiến lịch sử, sai lệch thu thập hoặc thiếu đại diện cho một số nhóm người. Nếu không được kiểm soát, AI có thể khuếch đại những sai lệch này ở quy mô lớn hơn và khó phát hiện hơn.
NIST AI Risk Management Framework, phát hành năm 2023, đưa ra cách tiếp cận quản trị rủi ro AI nhằm cải thiện khả năng tích hợp các yếu tố đáng tin cậy vào thiết kế, phát triển, sử dụng và đánh giá hệ thống AI. Khung này nhấn mạnh các đặc tính như an toàn, bảo mật, minh bạch, có thể giải thích, bảo vệ quyền riêng tư và công bằng với thiên lệch gây hại được quản lý [4]. Với Human-Centered AI, quản trị rủi ro không phải là bước kiểm tra cuối cùng trước khi ra mắt, mà là một phần của toàn bộ vòng đời thiết kế.
5. Thiết kế AI như một hệ thống học hỏi liên tục
AI không phải là sản phẩm “làm xong rồi để đó”. Bối cảnh sử dụng thay đổi, hành vi người dùng thay đổi, dữ liệu thay đổi và rủi ro cũng thay đổi. Một hệ thống ban đầu hoạt động tốt có thể trở nên kém phù hợp sau một thời gian nếu không được theo dõi, đánh giá và cải tiến.
Vì vậy, Human-Centered AI cần có cơ chế thu thập phản hồi, phát hiện lỗi, ghi nhận khiếu nại, đánh giá tác động và cập nhật mô hình hoặc quy trình. Người dùng không chỉ là người tiêu thụ sản phẩm AI, mà còn là nguồn học hỏi quan trọng để hệ thống trở nên phù hợp hơn với thực tế. Điều này đòi hỏi tổ chức phải xây dựng năng lực vận hành AI dài hạn, bao gồm nhân sự, quy trình, tiêu chí đánh giá và trách nhiệm giải trình.
Quy trình thiết kế giải pháp AI bắt đầu từ nhu cầu con người
Để biến Human-Centered AI thành hành động, các nhóm triển khai có thể đi theo một quy trình gồm sáu bước. Quy trình này kết hợp tư duy thiết kế, quản trị rủi ro và phát triển sản phẩm AI theo hướng thực tiễn.
Bước 1: Thấu hiểu người dùng và bối cảnh sử dụng
Bước đầu tiên là nghiên cứu con người trong bối cảnh thật. Nhóm thiết kế cần phỏng vấn, quan sát, khảo sát, phân tích hành trình người dùng và xác định những điểm đau có ý nghĩa. Trong giáo dục, đó có thể là hành trình của sinh viên khi chọn học phần, tự học, nhận phản hồi bài tập hoặc chuẩn bị việc làm. Trong doanh nghiệp, đó có thể là hành trình của nhân viên khi xử lý báo cáo, chăm sóc khách hàng hoặc tìm kiếm tri thức nội bộ.
Kết quả của bước này không nên chỉ là danh sách tính năng mong muốn. Điều quan trọng hơn là hiểu được người dùng đang cố gắng đạt mục tiêu gì, điều gì cản trở họ, họ đang dùng giải pháp thay thế nào, họ tin tưởng nguồn thông tin nào và họ lo ngại điều gì khi AI tham gia vào quy trình.
Bước 2: Xác định bài toán và tiêu chí thành công
Sau khi thấu hiểu bối cảnh, nhóm cần chuyển phát hiện nghiên cứu thành tuyên bố bài toán rõ ràng. Một bài toán tốt không nên viết theo kiểu “xây dựng chatbot AI”, mà nên viết theo kiểu “giúp sinh viên năm nhất tìm được thông tin học vụ chính xác trong vòng vài phút mà không phải hỏi nhiều phòng ban”. Cách diễn đạt này giữ trọng tâm ở nhu cầu con người, không khóa sớm vào một giải pháp công nghệ.
Tiêu chí thành công cũng cần cân bằng giữa hiệu quả kỹ thuật và giá trị con người. Ngoài độ chính xác, thời gian phản hồi hay tỷ lệ tự động hóa, cần đo mức độ hài lòng, khả năng hiểu câu trả lời, tỷ lệ người dùng kiểm chứng được thông tin, số lỗi gây hại được phát hiện, khả năng tiếp cận của người khuyết tật và mức độ giảm tải công việc cho con người.
Bước 3: Quyết định vai trò phù hợp của AI
Không phải bài toán nào cũng cần AI tự động ra quyết định. Có những trường hợp AI chỉ nên đóng vai trò gợi ý, tóm tắt, phân loại, nhắc việc hoặc phát hiện bất thường. Có những trường hợp AI có thể tự động xử lý tác vụ rủi ro thấp. Và cũng có những trường hợp AI không nên được dùng nếu rủi ro vượt quá lợi ích.
Câu hỏi thiết kế quan trọng là: mức độ tự động hóa nào phù hợp với năng lực người dùng, độ nhạy cảm của dữ liệu, hậu quả của sai sót và yêu cầu trách nhiệm? Trong các quyết định ảnh hưởng đến điểm số, cơ hội học tập, tuyển dụng, tài chính hoặc quyền lợi công dân, con người cần có quyền xem xét, can thiệp và chịu trách nhiệm cuối cùng.
Bước 4: Thiết kế trải nghiệm giải thích, phản hồi và kiểm soát
Một giải pháp AI tốt cần được thiết kế như một cuộc đối thoại giữa con người và hệ thống. Người dùng cần biết họ đang tương tác với AI, AI dùng loại dữ liệu nào, câu trả lời có giới hạn gì, khi nào cần kiểm chứng thêm và họ có thể phản hồi hoặc sửa lỗi ra sao. Đây là những yếu tố quyết định khả năng tin cậy và chấp nhận của sản phẩm.
Ví dụ, một hệ thống AI hỗ trợ giáo viên nhận xét bài viết của học sinh không nên chỉ trả về điểm số. Nó nên giải thích tiêu chí, chỉ ra đoạn văn liên quan, phân biệt giữa góp ý chắc chắn và gợi ý tham khảo, đồng thời cho phép giáo viên chỉnh sửa trước khi gửi phản hồi cho học sinh. Khi đó, AI trở thành trợ lý chuyên môn, không phải người phán xét thay thế giáo viên.
Bước 5: Kiểm thử với người dùng thật và tình huống biên
Kiểm thử AI không thể chỉ dừng ở bộ dữ liệu chuẩn. Nhóm thiết kế cần kiểm thử với người dùng thật, ngôn ngữ thật, lỗi nhập liệu thật, cảm xúc thật và những tình huống bất thường. Các tình huống biên thường là nơi bộc lộ rõ nhất rủi ro: câu hỏi mơ hồ, dữ liệu thiếu, người dùng yếu thế, trường hợp nhạy cảm hoặc yêu cầu vượt ngoài phạm vi hệ thống.
Bên cạnh kiểm thử kỹ thuật, cần kiểm thử trải nghiệm: người dùng có hiểu AI đang làm gì không, có biết khi nào không nên tin AI không, có tìm được nút phản hồi không, có cảm thấy bị ép buộc bởi đề xuất của AI không. Những câu hỏi này giúp nhóm phát hiện các vấn đề mà chỉ số kỹ thuật thuần túy có thể bỏ qua.
Bước 6: Triển khai có giám sát và cải tiến liên tục
Khi đưa vào vận hành, tổ chức cần theo dõi hiệu năng, phản hồi, lỗi, khiếu nại và tác động xã hội của hệ thống. Cần có quy trình xử lý sự cố, kênh tiếp nhận phản ánh, tiêu chí dừng hoặc giới hạn hệ thống khi rủi ro tăng cao. Với các giải pháp AI dùng trong tổ chức, cũng cần đào tạo người dùng để họ hiểu vai trò, giới hạn và trách nhiệm khi sử dụng AI.
Đây là điểm nhiều dự án AI thất bại: họ đầu tư vào xây dựng công cụ nhưng thiếu năng lực vận hành. Human-Centered AI đòi hỏi tổ chức không chỉ “có AI”, mà còn phải có văn hóa sử dụng AI có trách nhiệm. Nếu Thầy/Cô, nhà trường, doanh nghiệp hoặc cơ quan cần thiết kế lộ trình triển khai AI bắt đầu từ nhu cầu con người, TS. Nguyễn Trung Hòa và Học viện Tư duy thiết kế có thể đồng hành trong các hoạt động tư vấn, đào tạo, thiết kế quy trình, xây dựng kịch bản ứng dụng và đánh giá trải nghiệm người dùng một cách nhanh chóng, chuyên nghiệp và hiệu quả.
Ví dụ ứng dụng Human-Centered AI trong giáo dục và tổ chức
Trong giáo dục, một hệ thống AI hỗ trợ học tập lấy con người làm trung tâm không chỉ trả lời câu hỏi của sinh viên. Nó cần hiểu mục tiêu học tập, trình độ hiện tại, ngữ cảnh môn học, phong cách phản hồi phù hợp và giới hạn đạo đức của việc hỗ trợ. Nếu AI làm bài thay người học, nó có thể phá vỡ mục tiêu giáo dục. Nhưng nếu AI gợi ý cách tư duy, đặt câu hỏi phản biện, chỉ ra lỗ hổng lập luận và đề xuất tài liệu phù hợp, nó có thể tăng cường năng lực tự học.
Trong quản trị tổ chức, một chatbot nội bộ có thể giúp nhân viên tìm kiếm quy định, biểu mẫu, hướng dẫn và tri thức nội bộ. Nhưng nếu thiết kế không tốt, chatbot có thể đưa thông tin lỗi thời hoặc khiến nhân viên bỏ qua kênh chính thức. Cách tiếp cận Human-Centered AI yêu cầu hệ thống phải hiển thị nguồn, ngày cập nhật, mức độ tin cậy và hướng dẫn liên hệ con người khi vấn đề vượt quá phạm vi trả lời tự động.
Trong truyền thông và dịch vụ công, AI có thể hỗ trợ phân tích phản ánh của người dân, tóm tắt ý kiến cộng đồng hoặc cá nhân hóa thông tin. Tuy nhiên, những ứng dụng này cần đặc biệt chú ý đến quyền riêng tư, thiên lệch dữ liệu và khả năng giải trình. Một giải pháp tốt không chỉ nhanh hơn, mà còn phải công bằng hơn, dễ tiếp cận hơn và giúp con người cảm thấy được lắng nghe hơn.
Những câu hỏi cần đặt ra trước khi triển khai một giải pháp AI
Trước khi đầu tư xây dựng hoặc mua một giải pháp AI, tổ chức nên dành thời gian trả lời một số câu hỏi nền tảng. Những câu hỏi này giúp chuyển cuộc thảo luận từ “có nên dùng công cụ nào” sang “chúng ta đang tạo ra giá trị gì cho con người”.
- Người dùng chính là ai, và ai có thể bị ảnh hưởng gián tiếp bởi hệ thống?
- Vấn đề con người đang gặp là gì, và có bằng chứng nào xác nhận vấn đề đó?
- AI có thật sự cần thiết không, hay có giải pháp đơn giản hơn?
- Dữ liệu dùng cho AI đến từ đâu, có đại diện, cập nhật và được phép sử dụng không?
- Nếu AI sai, ai bị ảnh hưởng và mức độ nghiêm trọng ra sao?
- Người dùng có được giải thích, phản hồi, từ chối hoặc yêu cầu con người can thiệp không?
- Tổ chức sẽ đo lường hiệu quả, an toàn, công bằng và trải nghiệm người dùng như thế nào?
Những câu hỏi này không nhằm làm chậm đổi mới. Ngược lại, chúng giúp đổi mới đi đúng hướng. Khi tổ chức đặt câu hỏi đúng từ đầu, AI có nhiều khả năng trở thành năng lực chiến lược thay vì một thử nghiệm rời rạc, tốn kém và khó duy trì.
Human-Centered AI là lời nhắc quan trọng trong kỷ nguyên trí tuệ nhân tạo: công nghệ càng mạnh, thiết kế càng phải nhân văn. Một giải pháp AI đáng giá không phải là giải pháp gây ấn tượng bằng khả năng tự động hóa, mà là giải pháp giúp con người hiểu rõ hơn, làm tốt hơn, quyết định có trách nhiệm hơn và được bảo vệ tốt hơn trước rủi ro công nghệ.
Thiết kế AI bắt đầu từ nhu cầu con người không làm giảm vai trò của dữ liệu hay thuật toán. Trái lại, nó giúp dữ liệu và thuật toán được đặt đúng chỗ, đúng mục tiêu và đúng trách nhiệm. Với giáo dục, quản trị, truyền thông và chuyển đổi số, Human-Centered AI không chỉ là xu hướng thiết kế sản phẩm, mà còn là nền tảng để xây dựng niềm tin, năng lực tổ chức và giá trị bền vững trong thời đại AI.
Tài liệu tham khảo
[1] Stanford Institute for Human-Centered Artificial Intelligence. (2024, February 13). What is Human-Centered AI? Stanford HAI. https://hai.stanford.edu/ai-definitions/what-is-human-centered-ai
[2] People + AI Research. (2019, May 8; updated 2025). People + AI Guidebook. Google PAIR. https://pair.withgoogle.com/guidebook/chapters
[3] OECD.AI. (2023, May 22). Human-Centered Artificial Intelligence: Reliable, Safe & Trustworthy. OECD.AI Catalogue of Tools & Metrics. https://oecd.ai/en/catalogue/tools/human-centered-artificial-intelligence-reliable,-safe-and-trustworthy
[4] National Institute of Standards and Technology. (2023, January 26; updated 2026). AI Risk Management Framework. NIST. https://www.nist.gov/itl/ai-risk-management-framework
