Mới đây, chuyên gia của Kaspersky đă phân tích về hậu quả có thể xảy ra của trí tuệ nhân tạo (AI), đặc biệt là nguy cơ tâm lư tiềm ẩn của công nghệ này.
Ông Vitaly Kamluk, Giám đốc Nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) khu vực châu Á - Thái B́nh Dương của Kaspersky, cho biết: “Một số người dự đoán rằng AI sẽ là mối đe dọa với sự tồn vong của loài người và là thứ sẽ hủy diệt nền văn minh nhân loại. Nhiều nhà điều hành cấp cao của các tập đoàn lớn thậm chí c̣n đứng lên kêu gọi giảm tốc độ hoạt động của AI để ngăn chặn thảm họa.
Đúng là với sự phát triển của AI, chúng ta đă chứng kiến sự đột phá của công nghệ có thể tổng hợp nội dung tương tự như những ǵ con người làm: từ h́nh ảnh đến âm thanh, video deepfake và thậm chí cả các cuộc hội thoại dựa trên văn bản không thể phân biệt được với con người.
Giống như hầu hết các đột phá công nghệ, AI là con dao hai lưỡi. Chúng ta luôn có thể tận dụng nó để làm lợi thế cho ḿnh miễn là chúng ta biết cách đặt chỉ dẫn an toàn cho những cỗ máy thông minh này”.
Khi tội phạm mạng sử dụng AI để thực hiện hành vi phạm tội, chúng có thể đổ lỗi cho công nghệ này và cảm thấy ít phải chịu trách nhiệm hơn về hậu quả của cuộc tấn công mạng, điều này dẫn đến "hội chứng né tránh tội lỗi".
Khi thực hiện các tấn công hoặc làm bị thương những người đi đường, kẻ phạm tội sẽ chịu áp lực tâm lư nặng nề từ việc chứng kiến trực tiếp hậu quả mà chúng gây ra. Tuy nhiên, điều này sẽ không được áp dụng đối với một tên tội phạm mạng ảo đang đánh cắp và tấn công một nạn nhân mà chúng không bao giờ nh́n thấy.
Việc tạo ra AI mang lại tiền bạc hoặc lợi ích bất hợp pháp cho kẻ phạm tội một cách ‘thần ḱ’, tạo ra khoảng cách giữa tâm lư tội lỗi và hành vi phạm tội của chúng v́ trên thực tế, người phạm tội không thực sự thực hiện hành vi, mà AI mới chính là chủ thể phạm tội”.
Một tác dụng phụ tâm lư khác của AI có thể ảnh hưởng đến các nhóm bảo mật CNTT là “ủy thác trách nhiệm”.
Khi ngày càng có nhiều quy tŕnh và công cụ an ninh mạng được tự động hóa và ủy quyền cho mạng nơ-ron nhân tạo, con người có thể cảm thấy ít phải chịu trách nhiệm hơn nếu một cuộc tấn công mạng xảy ra, đặc biệt là trong môi trường công ty.
Kamluk đă chia sẻ một số hướng dẫn để các nhóm bảo mật tận dụng lợi ích của AI một cách an toàn:
- Khả năng truy cập: Hạn chế quyền truy cập ẩn danh vào các hệ thống thông minh thực sự được xây dựng và đào tạo trên khối lượng dữ liệu khổng lồ.
Tương tự như WWW, cần phải có một quy tŕnh xử lư việc sử dụng và lạm dụng AI sai mục đích, đồng thời có các thông tin liên hệ rơ ràng để báo cáo hành vi lạm dụng.
- Quy định: Liên minh châu Âu đă bắt đầu thảo luận về việc đánh dấu nội dung được tạo ra với sự trợ giúp của AI. Bằng cách đó, người dùng ít nhất sẽ có cách nhanh chóng và đáng tin cậy để phát hiện ra các h́nh ảnh, âm thanh, video hoặc văn bản được tạo ra bởi AI.
Việc sản xuất nội dung được tạo ra bởi AI cần phải được kiểm soát, bao gồm cả các hạn chế xuất khẩu khi cần thiết.
- Giáo dục: Nâng cao nhận thức về cách phát hiện nội dung nhân tạo, cách xác thực nội dung đó và cách báo cáo hành vi lạm dụng có thể xảy ra là biện pháp hiệu quả nhất để đối phó với các tác nhân gây hại.
Các trường học nên dạy khái niệm về AI, sự khác biệt với trí thông minh tự nhiên, tính đáng tin cậy hoặc khả năng gặp sự cố trong việc tạo ra các h́nh ảnh, âm thanh, video hoặc văn bản bằng AI.
Các lập tŕnh viên phần mềm phải được đào tạo về cách sử dụng công nghệ một cách có trách nhiệm và hiểu biết về h́nh phạt nếu lạm dụng AI.
|