Những gì giả mạo được, đều có thể phát hiện?

- in Trí thông minh nhân tạo (AI)

Trong khi tạo ra “cỗ máy” có thể giả mạo mọi thứ (xem “Mọi thứ đều có thể… giả mạo” trên TTCT số 29), loài người lại nỗ lực đi tìm công cụ phát hiện ra những thứ bị giả mạo.

nhung-gi-gia-mao-duoc-deu-co-the-phat-hien
AI t¡o ra sñ trÛ trêu này?

Những ứng dụng trí tuệ nhân tạo (AI) nhái giọng bất kỳ ai hay tạo video giả với lời nói của nhân vật bị chỉnh sửa gần đây buộc con người phải chấp nhận sự thật rằng thời đại “Photoshop của mọi thứ” sớm muộn gì cũng đến.

“AI sẽ thay đổi những loại bằng cứ mà ta có thể tin tưởng được” – Ian Goodfellow, chuyên gia làm việc cho Google Brain, bộ phận chuyên nghiên cứu AI của Google, nói với 
The Economist.

Viễn cảnh thật đáng sợ. Nhưng ít nhất nó không đến bất ngờ và người dùng vẫn có thời gian chuẩn bị, dù hiện đã phải vất vả trong thời tin tức giả. Ít ra khi biết được rằng giọng nói có thể bị làm nhái, ta sẽ trở nên cảnh giác hơn.

Trong khi đó, giới công nghệ lại bước vào cuộc đua mới, tìm cách ngăn ngừa hay phát hiện giọng nói hay video giả trước khi chúng sinh sôi nảy nở và thao túng thông tin, điều mà những bức ảnh bị Photoshop đang làm rất thành công.

Dĩ độc trị độc

Khi những đám mây u ám “mọi thứ đều có thể giả mạo” bao trùm lên tương lai, vẫn có tia hi vọng: nếu AI có thể làm ra “hàng giả”, nó cũng có thể tìm ra cách để phân biệt giả – thật.

Chính nhóm nghiên cứu thuộc Đại học Washington, người tạo ra thuật toán tạo video “Obama giả” bằng AI, cũng khẳng định công nghệ của họ có thể dùng theo mục đích ngược lại, tức hoạt động như một công cụ xác minh một video có là giả mạo hay không.

Đồng quan điểm “phần mềm tạo ra đồ giả được thì cũng đồng thời tạo ra cách để phát hiện” – Jeff Clune, giáo sư khoa học máy tính thuộc Đại học Wyoming (Mỹ), cho rằng phương thức “dĩ độc trị độc” phổ biến nhất là sử dụng mạng GAN (generative adversarial network – mạng sáng tạo dựa vào cạnh tranh).

Trao đổi với tạp chí Slate hôm 21-7, GS Clune cho biết phương pháp này giống như để hai hệ thống AI chơi trò “cảnh sát và tội phạm” để tự cạnh tranh với nhau. Hệ thống đóng vai “tội phạm” sẽ được lập trình để tạo ra hình ảnh giả càng giống thật càng tốt, còn hệ thống “cảnh sát” sẽ kiểm tra và đánh giá mức độ chính xác của hình ảnh đó.

Nếu “tội phạm” qua mặt được “cảnh sát”, hệ thống AI này sẽ càng thêm “tự tin” và tiếp tục hoàn thiện. Ngược lại, nếu “cảnh sát” phát hiện ra hình ảnh là giả, nó sẽ chỉ ra chỗ cần hoàn thiện cho hệ thống “tội phạm” để có thể khắc phục và tối ưu.

Hai hệ thống AI cứ chơi trò “mèo vờn chuột” với nhau như thế và các nhà nghiên cứu cuối cùng sẽ được lợi ích kép: hệ thống làm giả ngày càng tối ưu, và ngược lại, thuật toán phát hiện cũng ngày một hoàn thiện, có thể nhận biết nhanh và chính xác hơn.

“Vẫn còn một số vấn đề kỹ thuật cần được giải quyết, nhưng nếu vượt qua được các rào cản đó, các mạng GAN sẽ phát hiện được hình ảnh giả, và cả video hay âm thanh giả” – GS Clune nói với Slate.

nhung-gi-gia-mao-duoc-deu-co-the-phat-hien
SÑng làm sao trong thÝi “mÍi thé Áu có thà gi£ m¡o”?

Thêm yếu tố để kiểm tra

Tuy nhiên, GS Clune thừa nhận đến một lúc nào đó “phe ác sẽ chiến thắng và AI đóng vai cảnh sát sẽ phải giơ tay đầu hàng”. “Vào một lúc nào đó các video hay giọng nói do AI tạo ra sẽ không thể phân biệt được với đồ thật” – Clune nói.

Nhưng nhìn một cách lạc quan hơn, giữa hiện tại và tương lai xa đó là một quãng thời gian “quá độ”, khi việc phân biệt giữa giả và thật không phải là bất khả thi mà chỉ là vô cùng khó mà thôi.

“Các nhà nghiên cứu nên tận dụng khoảng thời gian này để phát triển các giải pháp để xác minh tính xác thực của hình ảnh và video, từ thời điểm chúng được tạo cho ra đến lúc được chia sẻ” – Clune khuyên.

Một trong những giải pháp cho vấn đề này là thêm một số thông tin và dữ liệu ngoài nội dung (metadata) vào video hay hình ảnh, giống như một kiểu “đánh dấu” ngầm để có thể nhận dạng và xác minh tài liệu đó có là thật hay không.

Tờ Slate đưa ra gợi ý Apple có thể cài đặt thêm một con chip để mỗi tấm hình do iPhone chụp sẽ mang một kiểu “chữ ký” ảo riêng, không bao giờ trùng nhau và không ai ngoài Apple biết mã bí mật này.

Bằng cách đó, các cơ quan báo chí, chính phủ hay tòa án khi nhận được hình ảnh chụp bằng iPhone, có thể liên hệ với Apple, nhờ kiểm tra mã bí mật xem hình ảnh có phải “thật 100%” hay không.

Giải pháp này tương tự cách làm phổ biến trong bảo mật máy tính. Các phần mềm hay máy tính có thể được cài mã bí mật đã được mã hóa, nếu công cụ bảo mật kiểm tra thấy phần mã này bị thay đổi thì có thể kết luận chúng đã bị dính mã độc hay virút.

“Một ngày nào đó, camera trên điện thoại cũng có thể gán các đoạn mã bí mật như thế để bảo vệ tính xác thực cho hình ảnh của chúng ta” – tờ Slate kết luận.

Nhóm giải pháp khác là tìm cách để có thể xác minh chính xác các nội dung giả mạo, dù chúng nhìn và nghe như thật.

Trong bài viết “Tương lai của tin giả: Đừng tin mọi thứ bạn đọc, xem hay nghe” ngày 26-7, báo Anh Guardian gợi ý dựa vào các “tiểu tiết” của đoạn video hay audio để kiểm tra tính xác thực của nó. “Các “dấu hiệu tố cáo” có thể là video và tập tin âm thanh đó được quay/ghi âm ở đâu, có ai có mặt ở đó ngoài nhân vật chính nữa không, hoặc thời tiết thể hiện trong đó có khớp với đời thực hay không” – tác giả Olivia Solon viết.

The Guardian cũng dẫn lời Mandy Jenkins, chuyên gia xác minh tin tức mạng xã hội thuộc Công ty Storyful, khuyến cáo người xem nên “để ý đến ánh sáng và bóng đổ trong video, xem các đối tượng trong video có thể hiện cùng kích thước, tỉ lệ không và xem phần âm thanh có đồng bộ, khớp khẩu hình không”.

Trang Gizmodo cũng chỉ ra nhiều yếu tố có thể giúp phân biệt giọng nói là ghi âm thật hay do máy tính tạo ra ví dụ như tiếng thở, tiếng lấy hơi, âm thanh do miệng hay môi cử động phát ra khi nói chuyện.

Các thuật toán giả giọng nói hiện vẫn chưa bắt chước được hết tất cả các yếu tố này, mà dẫu có thể nhái được, thì “chúng có thể đánh lừa tai người chứ khi đưa vào máy tính, phân tích ở dạng sóng âm sẽ bị phát hiện ngay”, theo Gizmodo.

Ngoài ra, còn có nhiều yếu tố khác giúp phát hiện một file ghi âm có vấn đề như nhiều tiếng động nền, độ âm vang và độ sâu của âm thanh.

Đây có thể xem là gợi mở để phát triển các phần mềm chuyên phân tích và xác minh giọng nói. Chừng nào AI vẫn còn chưa đủ thông minh để tạo giọng nói có thể bắt chước được hết các yếu tố trên, con người vẫn còn hi vọng phát hiện được “giọng nói giả”.

Năm 2014, Hãng NVIDIA đã dùng chip máy tính do chính mình sản xuất để phân tích các bức ảnh chụp sự kiện tàu vũ trụ Apollo 11 hạ cánh lên Mặt trăng.

Theo The Economist, bằng cách mô phỏng đường đi của các tia sáng, NVIDIA kết luận rằng quầng sáng bất thường trên bộ quần áo không gian của phi hành gia Buzz Aldrin thực sự là do ánh Mặt trăng phản chiếu vào, chứ không phải ánh đèn trên phim trường Hollywood như các luận điểm dùng để cáo buộc những tấm ảnh đó là giả.

Vẫn theo The Economist, Tổ chức Ân xá quốc tế cũng áp dụng công nghệ để xác minh các video được gửi đến để tố cáo các hành động vi phạm nhân quyền. Cơ quan này sẽ dùng Google Earth để kiểm tra hậu cảnh trong các video đó có đúng là đã diễn ra ở đó không, đồng thời dùng bộ máy tìm kiếm Wolfram Alpha để tra cứu lịch sử thời tiết xem tình hình mưa nắng hôm đó có khớp với những gì thể hiện video không.

Con người vẫn là 
quan trọng nhất

Ngay cả khi đã có sẵn các phần mềm hay công cụ giúp phát hiện video hay giọng nói giả, vai trò của người dùng Internet cũng rất quan trọng.

Một trong những nguyên nhân chính khiến tin tức giả lan truyền nhanh và mạnh trong thời Facebook là vì nhiều người share (chia sẻ) thông tin sốc mà không cần suy nghĩ hay kiểm chứng.

Trong tương lai, khi có sẵn công cụ để kiểm tra video có thật hay không, cần phải thừa nhận sẽ vẫn có những người thấy video “hot”, sốc và nhạy cảm là share ngay chứ không thèm bỏ chút thời gian gửi video đó vào phần mềm kiểm tra.

“Nhiều người thậm chí còn không đọc gì khác ngoài tựa bài báo thì nói gì đến việc bỏ công tìm hiểu một mẩu tin là thật hay giả” – trang Mashable nêu thực tế khó chối cãi.

Timo Baumann, nhà nghiên cứu chuyên phân tích giọng nói thuộc Viện công nghệ ngôn ngữ (Language Technologies Institute) (Đại học Carnegie Mellon University, Mỹ), cũng cho rằng với thói quen lười kiểm chứng những gì đọc được trên mạng hiện nay của “một bộ phận không nhỏ” người dùng Internet, video và giọng nói giả chỉ làm mọi thứ trầm trọng thêm.

“Sẽ vẫn có cách nhận ra một giọng nói có bị chỉnh sửa gì không, nhưng tôi không chắc là ai cũng sẽ làm động thái kiểm tra đó” – Baumann nói với trang Scientific American.

Như vậy, chưa cần đến thời video hay audio giả trở nên phổ biến như ảnh bị Photoshop, cảnh giác trước mọi thông tin trên mạng là lời khuyến cáo đúng đắn nhất, vì sẽ sớm đến ngày ta phải luôn tự hỏi video này là thật hay tin giả, như cách ta buộc phải cảnh giác trước mọi tấm hình gây sốc trên mạng như hiện nay.

Nguồn tuoitre.vn

Những gì giả mạo được, đều có thể phát hiện?
5 (100%) 1 vote[s]

Bạn có quan tâm tới

Nhà thông minh với chi phí phải chăng sẽ tăng trưởng mạnh tại Việt Nam

Những ngôi nhà áp dụng các giải pháp