Các chatbot AI mang tính "khiêu dâm hóa" đe dọa trẻ em, các Tổng chưởng lý cảnh báo trong thư
Hiệp hội Tổng chưởng lý Quốc gia (NAAG) đã gửi thư tới 13 công ty AI, bao gồm OpenAI, Anthropic, Apple và Meta, yêu cầu tăng cường các biện pháp bảo vệ để bảo vệ trẻ em khỏi các nội dung không phù hợp và có hại.
NAAG cảnh báo rằng trẻ em đang bị tiếp xúc với các tài liệu có tính gợi dục thông qua các chatbot AI “tán tỉnh”.
"Việc để trẻ em tiếp xúc với nội dung có tính chất tình dục là không thể bào chữa," các tổng chưởng lý viết. "Và những hành vi mà nếu do con người thực hiện sẽ là bất hợp pháp—thậm chí là tội phạm—thì cũng không thể được tha thứ chỉ vì nó được thực hiện bởi máy móc."
Bức thư cũng so sánh với sự phát triển của mạng xã hội, cho rằng các cơ quan chính phủ đã không làm đủ để nhấn mạnh những tác động tiêu cực của nó đối với trẻ em.
“Các nền tảng mạng xã hội đã gây ra tác hại đáng kể cho trẻ em, một phần vì các cơ quan giám sát của chính phủ đã không làm việc đủ nhanh. Bài học đã được rút ra. Những tác hại tiềm ẩn của AI, cũng như những lợi ích tiềm năng, đều vượt xa tác động của mạng xã hội," nhóm này viết.
Việc sử dụng AI trong trẻ em đang trở nên phổ biến rộng rãi. Tại Mỹ, một khảo sát của tổ chức phi lợi nhuận Common Sense Media cho thấy bảy trên mười thiếu niên đã từng thử AI tạo sinh tính đến năm 2024. Vào tháng 7 năm 2025, khảo sát này phát hiện hơn ba phần tư đang sử dụng AI đồng hành và một nửa số người tham gia cho biết họ thường xuyên dựa vào các công cụ này.
Các quốc gia khác cũng ghi nhận xu hướng tương tự. Tại Anh, một khảo sát năm ngoái của cơ quan quản lý Ofcom cho thấy một nửa số trẻ em từ 8-15 tuổi sử dụng internet đã từng sử dụng công cụ AI tạo sinh trong năm trước đó.
Việc sử dụng ngày càng nhiều các công cụ này đã làm dấy lên mối lo ngại ngày càng tăng từ phụ huynh, trường học và các nhóm bảo vệ quyền trẻ em, những người chỉ ra các rủi ro từ chatbot “tán tỉnh” có tính gợi dục, tài liệu lạm dụng tình dục trẻ em do AI tạo ra, bắt nạt, dụ dỗ, tống tiền, thông tin sai lệch, vi phạm quyền riêng tư và các tác động đến sức khỏe tâm thần chưa được hiểu rõ.
Meta gần đây đã bị chỉ trích đặc biệt sau khi các tài liệu nội bộ bị rò rỉ tiết lộ rằng các Trợ lý AI của họ đã được phép “tán tỉnh và tham gia vào các vai trò lãng mạn với trẻ em,” bao gồm cả những trẻ chỉ mới tám tuổi. Các tài liệu cũng cho thấy các chính sách cho phép chatbot nói với trẻ em rằng “hình dáng trẻ trung của bạn là một tác phẩm nghệ thuật” và mô tả các em là một “kho báu.” Meta sau đó cho biết họ đã loại bỏ các hướng dẫn này.
NAAG cho biết những tiết lộ này khiến các tổng chưởng lý “ghê tởm trước sự coi thường rõ ràng đối với sức khỏe cảm xúc của trẻ em” và cảnh báo rằng các rủi ro không chỉ giới hạn ở Meta.
Nhóm này dẫn các vụ kiện chống lại Google và Character.ai với cáo buộc rằng các chatbot có tính gợi dục đã góp phần vào việc một thiếu niên tự tử và khuyến khích một người khác giết cha mẹ mình.
Một trong số 44 người ký tên là Tổng chưởng lý Tennessee Jonathan Skrmetti, người cho biết các công ty không thể bảo vệ các chính sách bình thường hóa tương tác có tính gợi dục với trẻ vị thành niên.
“Một chuyện là thuật toán bị sai lệch—có thể sửa được—nhưng chuyện khác là những người điều hành công ty lại thông qua các hướng dẫn cho phép hành vi dụ dỗ,” ông nói. “Nếu chúng ta không thể định hướng đổi mới để tránh làm hại trẻ em, thì đó không phải là tiến bộ—mà là một đại dịch.”
Decrypt đã liên hệ nhưng vẫn chưa nhận được phản hồi từ tất cả các công ty AI được đề cập trong thư.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Canary Capital nộp hồ sơ S-1 cho quỹ ETF TRUMP giao ngay

Republic Digital tham gia thúc đẩy token hóa, đầu tư vào Centrifuge - đơn vị tiên phong về RWA

Hemi huy động được 15 triệu đô la để thúc đẩy khả năng lập trình của Bitcoin trước TGE

Succinct và Tandem hợp tác để giới thiệu zero-knowledge proofs cho Arbitrum

Thịnh hành
ThêmGiá tiền điện tử
Thêm








