owa9jl4othzdfxl13gzphyn13jiax1j7.jpg
Công nghệ mới được kỳ vọng là chìa khóa giải quyết hữu hiệu vấn nạn deepfake.

Deepfake là thuật ngữ được tạo nên với sự kết hợp của ‘Deep Learning’ (học sâu) và ‘Fake’ (giả mạo). Nói một cách đơn giản, đây là công nghệ mô phỏng và tạo ra các sản phẩm âm thanh, hình ảnh hoặc thậm chí là cả video giả.

Kể từ khi trí tuệ nhân tạo (AI) phát triển bùng nổ, vấn nạn deepfake đang ngày càng trở nên phổ biến, hình thành nên các làn sóng lan truyền thông tin sai lệch trên báo chí. Vì vậy, việc xác thực nguồn gốc hình ảnh, video một cách chủ động là vấn đề cấp thiết đặt ra đối với các hãng máy ảnh hàng đầu thế giới.

Sony, Canon và Nikon dự kiến sẽ ra mắt dòng máy ảnh kỹ thuật số có hỗ trợ chữ ký số trực tiếp trên các dòng máy ảnh Mirrorless (hay máy ảnh kỹ thuật số DSLR) do họ sản xuất. Nỗ lực triển khai chữ ký số trên các máy ảnh là một biện pháp vô cùng quan trọng, tạo bằng chứng về nguồn gốc và tính toàn vẹn của hình ảnh.

Những chữ ký số này sẽ bao gồm thông tin về ngày, giờ, địa điểm, nhiếp ảnh gia và có khả năng chống giả mạo. Điều này đặc biệt quan trọng đối với các phóng viên ảnh và các chuyên gia khác có công việc yêu cầu xác thực.

Ba gã khổng lồ trong ngành máy ảnh đã thống nhất tiêu chuẩn toàn cầu về chữ ký số tương thích với công cụ xác minh trực tuyến Verify. Được giới thiệu bởi liên minh các tổ chức tin tức, công ty công nghệ và nhà sản xuất máy ảnh toàn cầu, công cụ này sẽ cho phép xác minh miễn phí tính xác thực của hình ảnh bất kỳ. Nếu hình ảnh được tạo hoặc sửa đổi bằng AI, Verify sẽ đánh dấu chúng là ‘Không có thông tin xác thực nội dung’.

Tầm quan trọng của những công nghệ chống deepfake bắt nguồn từ sự gia tăng nhanh chóng của các sản phẩm giả mạo sâu về các nhân vật nổi tiếng như cựu Tổng thống Mỹ Donald Trump và Thủ tướng Nhật Bản Fumio Kishida.

Ngoài ra, các nhà nghiên cứu từ Đại học Thanh Hoa ở Trung Quốc đã phát triển một mô hình AI tổng quát mới có khả năng tạo ra khoảng 700.000 hình ảnh mỗi ngày.

deepfake 01.jpg
Công nghệ mới sẽ giúp khôi phục niềm tin và định hình nhận thức của chúng ta về thế giới.

Ngoài các hãng sản xuất máy ảnh, các công ty công nghệ khác cũng đang tham gia cuộc chiến chống lại deepfake. Google đã phát hành một công cụ để đánh dấu hình mờ kỹ thuật số vào hình ảnh do AI tạo ra, trong khi Intel đã phát triển công nghệ phân tích sự thay đổi màu da trong ảnh để giúp xác định tính xác thực của chúng. Hitachi cũng đang nghiên cứu công nghệ ngăn chặn gian lận danh tính trực tuyến.

Công nghệ mới dự kiến ​​sẽ ra mắt vào đầu năm 2024. Sony có kế hoạch quảng bá công nghệ này tới các phương tiện truyền thông và đã tiến hành thử nghiệm thực địa vào tháng 10/2023. Canon hợp tác với Thomson Reuters và Phòng thí nghiệm bảo toàn dữ liệu Starling (viện nghiên cứu do Đại học Stanford và Đại học Nam California thành lập) để tiếp tục hoàn thiện công nghệ.

Các nhà sản xuất máy ảnh hy vọng công nghệ mới sẽ giúp khôi phục niềm tin của công chúng vào hình ảnh, nhờ đó định hình nhận thức của chúng ta về thế giới.

(theo OL)

Trả 5.000 USD để Facebook lan truyền video deepfake lừa đảo đầu tư

Trả 5.000 USD để Facebook lan truyền video deepfake lừa đảo đầu tư

Một kẻ lừa đảo đã trả cho Facebook hơn 5.000 USD để video deepfake tiếp cận 100.000 người tại Australia. Video giả mạo chương trình phỏng vấn và kêu gọi mọi người đầu tư thu lợi nhuận khủng.
Mã độc mới chiếm quyền điều khiển smartphone, video deepfake ngày càng tinh vi

Mã độc mới chiếm quyền điều khiển smartphone, video deepfake ngày càng tinh vi

Mã độc mới có thể qua mặt hàng rào an ninh chiếm quyền điều khiển smartphone; Video deepfake ngày càng tinh vi, giống thật;… là những thông tin công nghệ nổi bật tuần qua.
Video deepfake ngày càng tinh vi và giống thật

Video deepfake ngày càng tinh vi và giống thật

Trong bối cảnh công nghệ ngày càng phát triển, đã có những công cụ cho phép tạo video deepfake giống thật đến 70-80%, dễ nhầm lẫn khi nhìn bằng mắt thường.
Làm gì để không

Làm gì để không “sập bẫy” cuộc gọi video Deepfake lừa đảo chuyển tiền?

Nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin, vì rất có thể bạn đang bị lừa đảo cuộc gọi video Deepfake.
Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm

Deepfake đang bị lợi dụng để ghép mặt nạn nhân vào video khiêu dâm

Trí tuệ nhân tạo (AI) và deepfake đang dần bị tội phạm mạng khai thác vào các mục đích xấu, trở thành công cụ lừa đảo, thậm chí làm nhục người khác.