Tìm bài viết

Vì Bài viết và hình ảnh quá nhiều,nên Quí Vị và Các Bạn có thể xem phần Lưu trử Blog bên tay phải, chữ màu xanh (giống như mục lục) để tỉm tiêu đề, xong bấm vào đó để xem. Muốn xem bài cũ hơn, xin bấm vào (tháng....) năm... (vì blog Free nên có thể nhiều hình ảnh bị mất, hoặc không load kịp, xin Quí Bạn thông cảm)
Nhìn lên trên, có chữ Suối Nguồn Tươi Trẻ là phần dành cho Thơ, bấm vào đó để sang trang Thơ. Khi mở Youtube nhớ bấm vào ô vuông góc dưới bên phải để mở rộng màn hình xem cho đẹp.
Cám ơn Quí Vị

Nhìn Ra Bốn Phương

Thứ Tư, 30 tháng 3, 2022

Deepfake - mối nguy hại mới trong thế giới Internet - The ASEAN Post


Công cụ nhận diện video sử dụng Deepfake của DARPA, Mỹ. (Nguồn: Cogito)
Nguy hiểm và tinh vi hơn cả fake news (tin tức giả), công nghệ Deepfake với khả năng cắt ghép khuôn mặt và hủy hoại danh tiếng của một cá nhân, tập thể chỉ với vài nút bấm, được dự báo có thể tạo nên những cơn ác mộng cho Internet trong tương lai. Thực tế cho thấy, bất cứ ai cũng có thể trở thành nạn nhân của vấn nạn Deepfake, đặc biệt là phụ nữ, người nổi tiếng và chính trị gia - nhóm đối tượng dễ bị lợi dụng nhất.
<!>
Deepfake là gì?

Khoảng hơn 2 năm trở lại đây, người sử dụng mạng xã hội đã biết tới các video sử dụng Deepfake để làm giả khuôn mặt của người nổi tiếng thông qua các thuật toán "học sâu" (deep learning) có khả năng thay thế những đặc điểm nhận dạng của một cá nhân bằng người khác. Deepfake làm xuất sắc tới mức mọi thứ trông giống hệt như thật mà không mấy ai nghi ngờ. Vậy Deepfake là gì?

Deepfake là thuật ngữ được tạo nên với sự kết hợp giữa "Deep Learning" và "Fake" (giả mạo), là một kỹ thuật tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo (AI). Về bản chất, công nghệ Deepfake được xây dựng trên nền tảng công nghệ học máy (Machine Learning) mã nguồn mở của hãng công nghệ Google. Sau khi quét các video và ảnh chân dung của một người cụ thể, Deepfake sẽ hợp nhất hình ảnh với video riêng biệt nhờ công nghệ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói giống như thật. Càng có nhiều video và hình ảnh gốc, thì AI càng hoạt động chính xác và video giả mạo có độ chân thực cao.

Sự kết hợp giữa video hiện có và video nguồn để tạo ra một video giả mạo hiển thị một người hoặc nhiều người đang thực hiện một hành động tại một sự kiện chưa bao giờ thực sự xảy ra.

Deepfake được biết đến rộng rãi vào tháng 12/2017, sau khi một người dùng có tên "DeepFakes" đã đăng các video khiêu dâm về những người nổi tiếng trên diễn đàn thảo luận nổi tiếng Reddit. Anh ta tạo ra những video giả này bằng cách ghép khuôn mặt của những người nổi tiếng lên cơ thể của các diễn viên phim người lớn.

Mối nguy hiểm của Deepfake

Với công nghệ ngày càng tinh vi, Deepfake ngày càng khó phát hiện và có thể được sử dụng cho nhiều loại tội phạm, khiến chúng trở nên nguy hiểm hơn.

Nếu bạn hay truy cập Facebook hoặc Instagram gần đây, chắc chắn bạn sẽ thấy một số đoạn clip ngắn về video ca nhạc Diamond của Rihanna hoặc bất kỳ video nào khác tương tự, nhưng thay vì khuôn mặt của người nổi tiếng trong các clip, giờ đây đó có thể là khuôn mặt của một trong những người bạn của bạn.

Hoán đổi khuôn mặt đã được sử dụng trong các bộ phim từ nhiều năm nay, nhưng để làm được điều đó, các nhà biên tập video lành nghề và các chuyên gia hình ảnh do máy tính tạo ra (CGI) cần phải mất vài giờ để đạt được kết quả tốt.

Ngày nay, với những đột phá mới trong công nghệ cho phép bất kỳ ai có kỹ thuật học sâu và bộ xử lý đồ họa mạnh mẽ (GPU) đều có thể tạo được những video giả vượt trội hơn nhiều so với kỹ thuật hoán đổi khuôn mặt thường thấy trong các bộ phim cũ. Không cần kỹ năng chỉnh sửa video vì toàn bộ quy trình được xử lý tự động bởi một thuật toán.

Mặc dù việc làm giả hình ảnh và video đã được thực hiện ngay cả trước khi có sự xuất hiện của phần mềm chỉnh sửa video và các chương trình chỉnh sửa hình ảnh, nhưng với trường hợp của Deepfake lại khác - chủ nghĩa hiện thực mới và thật sự nguy hiểm.

Khi kết quả các sản phẩm làm giả ngày càng trở nên "thật" hơn, sẽ tới lúc một người dùng phần mềm nghiệp dư cũng có thể khiến bạn bè, bạn học, đồng nghiệp và người quen của mình xuất hiện trong phim khiêu dâm, đổi vai với các ngôi sao Hollywood. Việc dễ dàng tạo ra được những video Deepfake này sẽ dẫn tới những hệ lụy khó lường đặc biệt là việc tạo ra những video khiêu dâm có chủ đích.

Hiện tại, việc sử dụng deepfake chủ yếu là cho nội dung khiêu dâm. Vào tháng 6/2020, một nghiên cứu đã chỉ ra rằng 96% tổng số deepfake trực tuyến là dành cho bối cảnh khiêu dâm và gần 100% trong số đó là của phụ nữ.

Deepfake có thể được sử dụng cho nhiều loại tội phạm khác nhau, chẳng hạn như làm mất uy tín của một cá nhân nào đó. Sẽ ra sao khi các phần mềm Deepfake lan tràn trên mạng, một ai đó có thể tạo video khiêu dâm về bạn rồi đăng lên Facebook? Dù chỉ là một hành động trêu đùa với mục đích trêu chọc, tuy nhiên, khi đã xuất hiện trên mạng, không có cách gì để kiểm soát sự phát tán đoạn video này và những hệ lụy sau đó.

Trong nhiều trường hợp, mục đích sử dụng Deepfake không còn là trò đùa nữa, mà nhằm làm mất uy tín, sỉ nhục, quấy rối hoặc chơi xấu và dùng vào mục đích tống tiền người khác.

Nội dung khiêu dâm chỉ là một trong số rất nhiều vấn đề mà Deepfake đặt ra. Ban đầu xuất hiện chủ yếu trong những video khiêu dâm, Deepfake bắt đầu lan sang lĩnh vực chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực.


Deepfake bắt đầu lan sang lĩnh vực chính trị với nguy cơ tạo ra tác động lớn ngoài đời thực. (Ảnh: AFP)

Ngày 17/4/2018, trên mạng xuất hiện đoạn video cho thấy một người giống với cựu Tổng thống Mỹ Barack Obama sử dụng những lời lẽ không hay để chỉ trích đương kim Tổng thống Donald Trump. Mặc dù công chúng sau đó phát hiện video này không phải sự thật, nhưng đoạn phim trên đã được lan truyền rất nhanh chóng và gây ra những hậu quả đáng tiếc.

Năm 2018, một video giả mạo khác được tung lên mạng, tuyên truyền về sức khỏe không tốt của Tổng thống Gabon Ali Bongo. Vụ việc được cho là đã châm ngòi nổ cho cuộc đảo chính quân sự bất thành tại quốc gia châu Phi này.

Rõ ràng, Deepfake đã trở thành vấn nạn trên thế giới, khiến nhiều người bị lâm vào tình cảnh khó khăn sau khi bị phát tán những những đoạn video giả mạo trên mạng. Tuy nhiên, tại Việt Nam, không ít người vẫn vô tư chia sẻ những bức ảnh cá nhân, với khuôn mặt rõ nét lên mạng xã hội ở chế độ công khai. Bởi lối suy nghĩ chủ quan cho rằng, Deepfake là chuyện xa vời, xảy ra ở đâu đó chứ không ảnh hưởng tới mình, vì họ không phải người nổi tiếng hay là chính trị gia.

Tuy nhiên, Deepfake lại chẳng loại trừ ai khi những video giả mạo vẫn được phát tán trên nhiều ngõ ngách của mạng Internet. Những hiệu ứng hoán đổi khuôn mặt trước đây chỉ nằm trong tay các chuyên gia phim ảnh thì nay lại thực hiện được ngay trên máy tính cá nhân. Bất kỳ ai cũng có thể biến bức ảnh, bản ghi âm, video thành những đoạn phim giả mạo như công cụ để truyền bá những thông tin sai lệch.

Trong khi Deepfake vẫn đang làm giới chức thế giới loay hoay tìm cách ứng phó, nhiều nhà khoa học đã khuyến cáo mỗi cá nhân cần phải tự bảo vệ mình, tránh trở thành nạn nhân của công nghệ trên. Các nhà khoa học cho rằng, càng nhiều hình ảnh, video cá nhân được đăng lên Internet thì khả năng bị làm giả danh tính bằng Deepfake càng cao. Để hạn chế đến mức thấp nhất khả năng bị làm giả danh tính, trước mắt, mỗi cá nhân hãy tự khống chế số lượng người có thể xem video và hình ảnh của chính mình.

Reface được cho là một trong những ứng dụng hoán đổi khuôn mặt tiên tiến, vui nhộn và được đánh giá cao nhất ở thời điểm hiện tại. Kết hợp với vô số video nguồn, gif, hình ảnh - bạn có thể tạo ra những video và gif hoán đổi khuôn mặt thực tế chỉ với một bức ảnh tự chụp duy nhất.

Giống như thời nổi lên của FaceApp, những video ghép mặt của Reface ngay lập tức tràn ngập trên các trang mạng xã hội toàn cầu. Trong vài tháng qua, ứng dụng ghép mặt vào video Reface đã thu hút được nhiều sự chú ý trên mạng, với số lượng tải xuống hàng đầu trên ứng dụng iOS App Store và Google Play ở 100 quốc gia.

The ASEAN Post, The Independent

Không có nhận xét nào: