Trong khi nhiều người đang chào đón AI tạo sinh trong lĩnh vực điện ảnh giải trí khi có thể giúp tạo ra các nội dung độc đáo cùng ưu thế về thời gian và chi phí, nhưng điều này có thể lại trở thành vấn đề với các bộ phim tài liệu khi có thể làm sai lệch hình ảnh và thông tin trong quá khứ mà người xem không hề hay biết.
Đây là chính là điều đang khiến hãng Netflix chịu sự chỉ trích khi bị phát hiện sử dụng các hình ảnh do AI tạo ra trong bộ phim tài liệu có tên "What Jennifer Did" – một trong các series có đông người xem nhất trên toàn cầu của nền tảng này. Phim kể về Jennifer Pan, người hiện đang bị giam giữ tại Canada vì âm mưu thuê người sát hại cha mẹ mình. Khi ra mắt vào đầu tháng Tư, bộ phim thu hút đông đảo người hâm mộ thể loại tội phạm thực tế.
Nhưng đồng thời bộ phim này cũng trở thành tâm điểm gây tranh cãi khi nhiều người xem nhanh chóng nhận ra các sai sót rõ ràng trong hình ảnh được sử dụng trong phim, từ việc khuyên tai không khớp cho đến chiếc mũi thiếu lỗ mũi.
Trang tin Futurism là một trong những nơi đầu tiên chỉ ra các hình ảnh lỗi này và cho rằng chúng "có tất cả các đặc điểm nổi bật của hình ảnh do AI tạo ra, từ bàn tay và ngón tay bị biến dạng, khuôn mặt bị méo mó, các vật thể móp méo trong hình ảnh nền và một chiếc răng cửa quá dài." Thậm chí hình ảnh khuôn mặt với chiếc răng cửa quá dài còn được Netflix dùng làm poster cho bộ phim.
Điều đáng nói hơn cả là phần credit cuối phim cũng không hề đề cập đến việc sử dụng AI trong bộ phim, khiến các nhà phê bình càng lớn tiếng chỉ trích nhà sản xuất bộ phim tài liệu này khi sử dụng các hình ảnh do AI tạo ra để tô điểm cho những sự kiện trong đời thực.
Tuy nhiên, cũng có người lên tiếng phản bác lại nhận định này. Jeremy Grimaldi, một phóng viên tội phạm đã viết sách về vụ án và cung cấp cho bộ phim tài liệu các nghiên cứu và cảnh quay của cảnh sát, đã phản hồi với tờ Toronto Star rằng các hình ảnh này không phải do AI tạo ra.
Grimaldi khẳng định rằng tất cả hình ảnh của Pan được sử dụng trong phim là ảnh thật. Ông cho biết một số hình ảnh đã được chỉnh sửa, nhưng không phải để làm mờ ranh giới giữa sự thật và hư cấu, mà để bảo vệ danh tính nguồn cung cấp hình ảnh.
Grimaldi nói với The Star: "Bất kỳ nhà làm phim nào cũng sử dụng các công cụ khác nhau, như Photoshop, trong phim. Những bức ảnh của Jennifer là ảnh thật của cô ấy. Tiền cảnh chính xác là cô ấy. Bối cảnh đã được ẩn danh để bảo vệ nguồn tin."
Một người khác lại có lời giải thích hợp lý hơn về tình huống này. Joe Foley, một nhiếp ảnh gia cho biết trong bài đăng trên blog của mình rằng: "các nhà sản xuất phim tài liệu có thể cố gắng cải thiện độ phân giải của các hình ảnh cũ bằng AI hoặc phần mềm phục hồi ảnh để trông chúng rõ nét hơn khi chiếu trên màn hình TV." Và vì vậy, đây có thể là lý do đã tạo ra một số hình ảnh bị méo mó như đã thấy trong bộ phim.
Vì vậy, ông Foley gợi ý rằng Netflix nên "ít nhất" làm rõ rằng hình ảnh đã được thay đổi "để tránh loại phản ứng dữ dội này", lưu ý rằng "bất kỳ hình thức thao túng hình ảnh nào trong phim tài liệu đều gây tranh cãi vì mục đích chung là trình bày mọi thứ như họ đã như vậy."
Kể từ khi các AI tạo ra có thể tạo ra video và hình ảnh bằng văn bản xuất hiện, chúng luôn là đề tài gây tranh cãi và gây ra nhiều mối lo ngại khác nhau. Trong khi các nhà biên kịch gọi các công cụ AI là những cỗ máy đạo văn, chúng còn gây ra một nguy cơ khác. Với mức độ chân thực của các hình ảnh và video do AI tạo ra, chúng có thể làm phát tán tin giả, thậm chí cả các kiến thức giả hoặc khiến người xem hiểu nhầm.
Hiện tại hãng Raw TV, nhà sản xuất bộ phim tài liệu này cũng như Netflix đều không trả lời yêu cầu bình luận của Arstechnica.