Thứ bảy Ngày 27 Tháng 04 Năm 2024, 09:54:42

Cảnh giác với thủ đoạn lợi dụng công nghệ trí tuệ nhân tạo để lừa đảo

Ngày đăng: 11/04/2023

QK2 – Không chỉ xuất hiện trên thế giới, mà thời gian gần đây ở Việt Nam đã xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người đã trở thành nạn nhân. Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để làm giả, tạo ra các đoạn video với hình ảnh, khuôn mặt và âm thanh, lời thoại giống hệt như hình ảnh người thân, đồng nghiệp, lãnh đạo… của người dùng để lừa đảo thông qua các nội dung như xin, vay, mượn, yêu cầu, đề nghị chuyển tiền và các thông tin, tài liệu có giá trị.

Theo các chuyên gia công nghệ và an ninh mạng, Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt trước đây. Tuy nhiên, gần đây những kẻ lừa đảo đã lợi dụng Deepfake AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao để lừa đảo, mạo danh. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội của người dùng… rồi sử dụng công nghệ Deepfake để tạo những video rất khó phân biệt thật, giả để phục vụ cho kịch bản lừa đảo.

Trước sự phát triển của khoa học công nghệ, trong đó có công nghệ trí tuệ nhân tạo, việc kẻ xấu lợi dụng, sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng diễn biến phức tạp. Để tránh bị “sập bẫy”, mọi người cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung xin, vay, mượn tiền hoặc yêu cầu cung cấp thông tin cá nhân, mã OTP tài khoản ngân hàng… qua các ứng dụng mạng xã hội như Zalo, Messenger, Viber… Đặc biệt, khi gặp tình huống trên phải bình tĩnh, xác định kỹ thông tin, thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại hoặc liên lạc trực tiếp với người thân để xác minh (tuyệt đối không liên lạc lại qua các ứng dụng mạng mạng xã hội). Trường hợp nghi vấn đối tượng giả mạo để lừa đảo chiếm đoạt tài sản cần báo ngay cho Công an hoặc cơ quan chức năng nơi gần nhất để được hỗ trợ, xử lý kịp thời. Bên cạnh đó, cũng cần tìm hiểu, trang bị cho mình hiểu biết về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video, hình ảnh thật và giả mạo để tránh trở thành nạn nhân của kẻ xấu lừa đảo.

NGỌC VIỆT

Trả lời

Thư điện tử của bạn sẽ không được hiển thị công khai.