OpenAI công bố khung an toàn trẻ em để ngăn lạm dụng AI

AdminTháng 4 9, 2026
7 lượt xem
OpenAI công bố khung an toàn trẻ em để ngăn lạm dụng AI缩略图

Tóm tắt nhanh

  • OpenAI đã công bố “Khung an toàn trẻ em” nhằm đối phó với hành vi bóc lột tình dục trẻ em có sự hỗ trợ của AI.
  • Khung chính sách tập trung vào cải cách pháp lý, tăng cường phối hợp báo cáo và các biện pháp bảo vệ được tích hợp ngay trong hệ thống AI.
  • Đề xuất này được xây dựng với ý kiến đóng góp từ các nhóm bảo vệ trẻ em, tổng chưởng lý và các tổ chức phi lợi nhuận.

Nhằm đối phó với tình trạng bóc lột tình dục trẻ em có sự hỗ trợ của AI ngày càng gia tăng, OpenAI hôm thứ Tư đã công bố một bản đề xuất chính sách, nêu ra các biện pháp an toàn mới mà ngành công nghệ có thể áp dụng để ngăn việc AI bị dùng để tạo ra tài liệu lạm dụng tình dục trẻ em.

Trong khuôn khổ này, OpenAI liệt kê các biện pháp pháp lý, vận hành và kỹ thuật nhằm tăng cường bảo vệ trước hành vi lạm dụng có yếu tố AI, đồng thời cải thiện sự phối hợp giữa các công ty công nghệ và lực lượng điều tra.

“Bóc lột tình dục trẻ em là một trong những thách thức cấp bách nhất của thời đại số,” công ty viết. “AI đang nhanh chóng thay đổi cả cách những tổn hại này xuất hiện trong toàn ngành lẫn cách chúng có thể được xử lý ở quy mô lớn.”

OpenAI cho biết đề xuất này tiếp thu phản hồi từ các tổ chức hoạt động trong lĩnh vực bảo vệ trẻ em và an toàn trực tuyến, bao gồm Trung tâm Quốc gia về Trẻ em Mất tích và Bị Bóc lột, cùng Hiệp hội Tổng chưởng lý và lực lượng đặc nhiệm AI của tổ chức này.

“AI tạo sinh đang thúc đẩy tội phạm bóc lột tình dục trẻ em trên mạng theo những cách hết sức đáng lo ngại — hạ thấp rào cản, gia tăng quy mô và tạo ra những hình thức gây hại mới,” Michelle DeLaune, Chủ tịch kiêm Tổng Giám đốc điều hành của Trung tâm Quốc gia về Trẻ em Mất tích và Bị Bóc lột, nói trong một tuyên bố. “Nhưng đồng thời, Trung tâm Quốc gia về Trẻ em Mất tích và Bị Bóc lột cũng khích lệ khi thấy các công ty như OpenAI suy nghĩ về cách thiết kế những công cụ này có trách nhiệm hơn, với các biện pháp bảo vệ được tích hợp ngay từ đầu.”

OpenAI cho biết khung này kết hợp các tiêu chuẩn pháp lý, hệ thống báo cáo của ngành và các biện pháp bảo vệ kỹ thuật ngay bên trong mô hình AI. Theo công ty, những biện pháp này nhằm phát hiện rủi ro lạm dụng sớm hơn và nâng cao trách nhiệm giải trình trên các nền tảng trực tuyến.

Bản đề xuất xác định một số hướng hành động, bao gồm cập nhật luật để xử lý nội dung lạm dụng tình dục trẻ em do AI tạo ra hoặc bị chỉnh sửa, cải thiện cách các nhà cung cấp dịch vụ trực tuyến báo cáo tín hiệu lạm dụng và phối hợp với cơ quan điều tra, đồng thời xây dựng các cơ chế bảo vệ trong hệ thống AI để ngăn bị lạm dụng.

“Không một biện pháp đơn lẻ nào có thể giải quyết thách thức này,” công ty viết. “Khung này kết hợp các cách tiếp cận pháp lý, vận hành và kỹ thuật để nhận diện rủi ro tốt hơn, tăng tốc phản ứng và hỗ trợ trách nhiệm giải trình, đồng thời bảo đảm cơ quan thực thi pháp luật vẫn đủ mạnh khi công nghệ tiếp tục phát triển.”

Bản đề xuất xuất hiện trong bối cảnh các nhà vận động bảo vệ trẻ em bày tỏ lo ngại rằng những hệ thống AI tạo sinh có khả năng tạo ra hình ảnh chân thực có thể bị lợi dụng để tạo các mô tả bị chỉnh sửa hoặc tổng hợp về trẻ vị thành niên. Vào tháng 2, UNICEF đã kêu gọi các chính phủ trên thế giới ban hành luật hình sự hóa tài liệu lạm dụng trẻ em do AI tạo ra.

Vào tháng 1, Ủy ban châu Âu đã mở một cuộc điều tra chính thức về việc liệu X, trước đây là Twitter, có vi phạm các quy định số của EU khi không ngăn được mô hình AI gốc của nền tảng này, Grok, tạo ra nội dung bất hợp pháp hay không; trong khi các cơ quan quản lý ở Vương quốc Anh và Australia cũng đã mở điều tra.

Cho rằng luật pháp thôi là chưa đủ để chặn đứng nạn tài liệu lạm dụng do AI tạo ra, OpenAI nói rằng các tiêu chuẩn ngành mạnh hơn sẽ là điều cần thiết khi các hệ thống AI ngày càng trở nên mạnh mẽ hơn.

“Bằng cách ngăn chặn các nỗ lực bóc lột sớm hơn, cải thiện chất lượng tín hiệu gửi tới cơ quan thực thi pháp luật và củng cố trách nhiệm giải trình trên toàn hệ sinh thái, khung này hướng tới việc ngăn tổn hại trước khi nó xảy ra và giúp bảo vệ trẻ em nhanh hơn khi rủi ro xuất hiện,” OpenAI cho biết.

Bản tin Daily Debrief

Bắt đầu mỗi ngày với những tin nóng nhất hiện nay, cùng các bài viết gốc, podcast, video và nhiều nội dung khác.

Theo OpenAI, khung này kết hợp các chuẩn pháp lý, hệ thống báo cáo của ngành và các biện pháp bảo vệ kỹ thuật trong mô hình AI. Công ty nói rằng những biện pháp này nhằm giúp xác định sớm nguy cơ lạm dụng và cải thiện trách nhiệm giải trình trên các nền tảng trực tuyến.

Bản đề xuất nêu rõ các lĩnh vực cần hành động, bao gồm cập nhật luật để xử lý tài liệu lạm dụng tình dục trẻ em do AI tạo ra hoặc bị chỉnh sửa, cải thiện cách các nhà cung cấp trực tuyến báo cáo tín hiệu lạm dụng và phối hợp với nhà điều tra, cũng như xây dựng các lớp bảo vệ trong hệ thống AI nhằm ngăn chặn việc lạm dụng.

“Không một biện pháp đơn lẻ nào có thể giải quyết thách thức này,” công ty viết. “Khung này tập hợp các cách tiếp cận pháp lý, vận hành và kỹ thuật để nhận diện rủi ro tốt hơn, đẩy nhanh phản ứng và hỗ trợ trách nhiệm giải trình, đồng thời bảo đảm cơ quan thực thi pháp luật vẫn đủ mạnh khi công nghệ tiếp tục phát triển.”

Bản đề xuất xuất hiện trong bối cảnh các nhà bảo vệ trẻ em bày tỏ lo ngại rằng những hệ thống AI tạo sinh có khả năng tạo ra hình ảnh chân thực có thể bị dùng để tạo các mô tả bị chỉnh sửa hoặc tổng hợp về trẻ vị thành niên. Vào tháng 2, UNICEF đã kêu gọi các chính phủ trên thế giới ban hành luật hình sự hóa tài liệu lạm dụng trẻ em do AI tạo ra.

Vào tháng 1, Ủy ban châu Âu đã mở một cuộc điều tra chính thức về việc liệu X, trước đây là Twitter, có vi phạm các quy tắc số của EU khi không ngăn được mô hình AI gốc của nền tảng này, Grok, tạo ra nội dung bất hợp pháp hay không, trong khi các cơ quan quản lý ở Vương quốc Anh và Australia cũng đã mở điều tra.

Nhấn mạnh rằng luật pháp thôi sẽ không thể ngăn chặn hoàn toàn nạn tài liệu lạm dụng do AI tạo ra, OpenAI cho biết các tiêu chuẩn ngành mạnh hơn sẽ là điều cần thiết khi các hệ thống AI trở nên ngày càng mạnh mẽ hơn.

“Bằng cách chặn các nỗ lực bóc lột sớm hơn, cải thiện chất lượng tín hiệu gửi tới cơ quan thực thi pháp luật và tăng cường trách nhiệm giải trình trên toàn hệ sinh thái, khung này hướng tới việc ngăn ngừa tổn hại trước khi nó xảy ra và giúp bảo vệ trẻ em nhanh hơn khi rủi ro xuất hiện,” OpenAI cho biết.

Tuyên bố miễn trừ: Bài viết này chỉ nhằm mục đích cung cấp thông tin dưới dạng blog cá nhân, không phải là khuyến nghị đầu tư. Nhà đầu tư cần tự nghiên cứu kỹ lưỡng trước khi đưa ra quyết định và chúng tôi không chịu trách nhiệm đối với bất kỳ quyết định đầu tư nào của bạn.

Theo Nghị quyết số 05/2025/NQ-CP ngày 09/09/2025 của Chính phủ về việc thí điểm triển khai thị trường tài sản số tại Việt Nam, CoinPhoton.com hiện chỉ cung cấp thông tin cho độc giả quốc tế và không phục vụ người dùng tại Việt Nam cho đến khi có hướng dẫn chính thức từ cơ quan chức năng.

Tin Vắn Crypto,OpenAIOpenAI#OpenAI #công #bố #khung #toàn #trẻ #để #ngăn #lạm #dụng1775674843

Các kênh thông tin của chúng tôi

Disclaimer: Thông tin trong bài viết không phải là lời khuyên đầu tư từ Coin98 Insights. Hoạt động đầu tư tiền mã hóa chưa được pháp luật một số nước công nhận và bảo vệ. Các loại tiền số luôn tiềm ẩn nhiều rủi ro tài chính.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *