Đạo đức AI cho PM: Nếu thuật toán của bạn đuổi việc một tài xế Grab, ai là người chịu tội?
Chúng ta trao cho AI quyền ngắt kết nối, khóa tài khoản, và ra quyết định thay con người. Nhưng khi cỗ máy sai lầm, người kỹ sư đã code ra nó hay người PM duyệt tính năng đó sẽ ra tòa?
“Sự tàn nhẫn của thời đại AI không nằm ở việc máy móc cố tình làm hại con người. Nó nằm ở việc các Product Manager tối ưu thuật toán một cách vô ý để đạt KPI, và phó mặc người dùng cho những thứ mà chính họ cũng không giải thích được.”
Một trong những giấc mơ kỳ lạ (và cũng đáng sợ) nhất của tuổi trẻ tôi là có ngày phải đứng trước vành móng ngựa giải thích về việc tôi quyết định sai có thể khiến sản phẩm tôi tâm huyết đóng cửa. Đương nhiên, đó chỉ là ảo giác của nghề làm sản phẩm và tự tưởng tượng mọi quyết định mình điều rất có giá trị khi còn trẻ.
Nhưng nếu nhìn vào bức tranh Product Management hiện nay, chuyện phải ra hầu tòa vì các tính năng liên quan đến AI tự động hóa (Automated Decision-Making) chả còn là phim viễn tưởng chắc sẽ sớm sảy ra.
Hồi xưa, một cái nút bấm mua hàng lỗi chỉ dẫn đến chuyện sếp mắng tát nước vào mặt, team hì hục sửa database, xin lỗi khách. Hậu quả dừng lại ở tiền và một bài bóc phốt trên diễn đàn.
Nhưng ngày nay, tính chất của sản phẩm đã mang tính định đoạt vì nhiều thứ phụ thuộc trên chính sản phẩm digital mà bạn đang có cơ hội làm. Giả sử bạn nhận trách nhiệm làm một con bot dùng thuật toán gạt bỏ hồ sơ xin việc (AI screening), hay một hệ thống tự động khóa sổ tài xế công nghệ khi nghi ngờ gian lận.
Một buổi sáng, AI của bạn nhận diện nhầm dữ liệu định vị, tự động cắt vĩnh viễn quyền đăng nhập của hàng nghìn tài xế với nguồn thu nhập chính từ app của bạn. Họ mất cần câu cơm. Cả gia đình khốn đốn, đi điền mẫu đơn khẩn thiết giải oan, nhưng hệ thống chăm sóc khách hàng của công ty cũng... dùng luôn AI để trả lời từ chối theo kịch bản có sẵn. Không ai nghe lời cầu cứu.
Giây phút đó, khi cái sự tự động hoá đó có thể lạnh lùng bóp chết một con người, ai là kẻ sát nhân? Người code ra AI? Nhà cung cấp LLM? Không. Chắc chắn mũi dùi dư luận và pháp luật sẽ nhắm vào người xây dựng nên sản phẩm: Các Product Manager ?.
Đừng ẩn núp sau chiếc bóng của thuật toán
Đạo đức nghề nghiệp thường là thứ dễ bị quên đầu tiên khi các PM bị dí deadline và ép KPI. Tự động hoá để tiết giảm chi phí vận hành. “Sếp bảo làm nhanh lên” - một bóng mây đủ lý do chống đỡ cho các quyết định nghe rất quen tai để quyết nhiều thứ vớ vẫn do áp lực phải làm.
Nhưng bạn phải hiểu, nếu một bản cập nhật tính năng làm phương hại đến sinh kế hoặc quyền lợi dân sự của một tập người dùng, bạn không thể nhún vai bảo là do cái máy nó tự học như thế.
Một nhân sự trong team có quyền không hiểu hết cách mô hình (black-box model) làm việc. Nhưng là một nhà quản lý sản phẩm, bạn bắt buộc phải hiểu giới hạn rủi ro của tính năng. Sự dốt nát về công nghệ mới nhất của thế kỷ này không phải là không biết code. Sự dốt nát lớn nhất là trao quyền sinh sát cho máy móc mà thiếu đi phương pháp quản lý để dừng khẩn cấp để con người can thiệp.
Sự vô can của việc nên làm hay không nên làm ?
Hàng loạt PM bây giờ lóa mắt bởi thứ tiện lợi mang tên AI Orchestration và Autonomous Agents. Họ muốn cho máy tự quyết định càng nhiều càng tốt để bản thân được xưng danh là “làm sản phẩm công nghệ tiên tiến”. Hỏi chơi bao nhiêu ae đang thử Vibecode để Auto Cho AI duyệt thế bạn làm gì trong tiến trình đó :D
Bạn làm ứng dụng y tế từ xa? Một con Agent vô tri đưa ra lời khuyên dùng sai liều thuốc vì đọc nhầm hồ sơ y bạ, bệnh nhân nhập viện. Sự kiện đó sẽ phá hủy không chỉ sự nghiệp của bạn mà còn là mạng sống người khác. Khi ranh giới giữa một sản phẩm tồi và một sản phẩm gây hại mỏng lại, trách nhiệm đạo đức của người làm nghề tăng lên gấp trăm lần.
Đề xuất cá nhân trong việc AI hoá hiện nay.
Thiết lập tư duy “Human-in-the-loop” (Con người can thiệp) cho bất cứ luồng quyết định nhạy cảm nào. Khi AI thay mặt bạn để phạt, khóa thẻ, trừ tiền, hay sa thải user, nó có thể tự phân loại, tự báo cáo, nhưng người cuối cùng bấm nút “Xác nhận duyệt” PHẢI LÀ MỘT CON NGƯỜI. Phải luôn để lại một khe hở cho sự thấu cảm và tự đánh giá.
Viết ngay một file “Pre-Mortem Kịch Bản Tồi Tệ Nhất” trước khi ra mắt tính năng AI. Tưởng tượng sản phẩm vô tình phân biệt chủng tộc, phá hoại thanh danh khách hàng, hoặc gây thiệt hại tiền bạc. Nhìn trần trụi vào những kịch bản đó, nghĩ cách chặn nó trước đi, chứ không phải giấu giếm nó đi vì sợ trễ tiến độ. Nếu rủi ro quá lớn mà không che lấp được, hãy dũng cảm là người nói câu: “Dự án này quá nguy hiểm, chúng ta không được public.”
P/s góc nhìn vui với nổi lo một ngày AI nắm giữ thế giới mới thì sao, thì hi vọng trách nhiệm đâu đó còn 1 nút lùi cho con người tự quyết bằng chính bản thể đạo đức của con người.
T.D
T3.2026


