Các chuyên gia điều tra trên mạng xã hội, trong đó có Nick Waters từ nhóm xác minh tin tức trực tuyến Bellingcat, đã nhanh chóng phát hiện ra một số điểm đáng chú ý về bức ảnh đó. Đầu tiên, không có bất kỳ nhân chứng nào xác thực sự kiện nêu trên. Ngoài ra, tòa nhà trong bức ảnh không trùng khớp với Lầu Năm Góc. Điều này có thể được kiểm tra dễ dàng bằng cách sử dụng công cụ như Google Street View để so sánh. Ngoài ra, sự xuất hiện của những chi tiết không bình thường như cột đèn treo lơ lửng và cột đen nhô ra khỏi vỉa hè cho thấy rằng bức ảnh này không thực tế.
Có một số công cụ trí thông minh nhân tạo như Midjourney, Dall-e 2 và Stable Diffusion có khả năng tái tạo hình ảnh một cách sống động như thật. Những công cụ này được đào tạo dựa trên việc phân tích một lượng lớn hình ảnh thực tế. Tuy nhiên, khi thiếu dữ liệu, những công cụ này có thể tự điền vào khoảng trống bằng cách sáng tạo của riêng chúng. Điều này có thể dẫn đến việc những đối tượng trong hình ảnh được tạo ra bởi trí thông minh nhân tạo có thể có thêm tay chân hoặc các vật phẩm bị biến dạng so với môi trường xung quanh.

Kênh truyền thông Al Jazeera đã đưa ra một số biện pháp để phân biệt giữa ảnh được tạo ra bởi trí thông minh nhân tạo và ảnh thực tế của các sự kiện lớn khi chúng xuất hiện trên internet.
- Xem thông tin người đăng: Xem lịch sử đăng bài của tài khoản người dùng, vị trí và mối quan hệ với các tài khoản khác. Có thể liên hệ hoặc trò chuyện với họ để xác minh thông tin.
- Sử dụng công cụ tìm kiếm hình ảnh đảo ngược: Công cụ như Google Images và TinEye cho phép tải lên hình ảnh và xác định vị trí và thời điểm mà hình ảnh xuất hiện lần đầu. Có thể sử dụng cảnh quay trực tiếp từ camera giao thông công cộng để xác minh sự kiện.
- Phân tích hình ảnh và môi trường xung quanh: Tìm kiếm dấu hiệu trong hình ảnh như địa điểm, biển báo giao thông và điều kiện thời tiết để giúp xác định vị trí hoặc thời điểm sự kiện diễn ra.
- Quan sát chi tiết con người trong hình ảnh: Đặc biệt chú ý đến đôi mắt, bàn tay và tư thế chung của con người trong hình ảnh. Deepfakes, video do trí thông minh nhân tạo tạo ra để giả mạo, thường mắc lỗi trong việc chớp mắt vì các bộ dữ liệu huấn luyện thường không chứa các hình ảnh về chớp mắt. Ngoài ra, tay không cầm vật thể đúng cách hoặc tay chân bị biến dạng một cách bất thường là những dấu hiệu có thể nhận ra.
- Nhận biết các lỗi thường gặp trong hình ảnh do AI tạo ra: Những lỗi thường gặp bao gồm số lượng răng hoặc gọng kính không thực tế, tai có hình dạng không tự nhiên. Da của người trong hình ảnh do AI tạo ra thường trông mịn màng, và thậm chí tóc và răng cũng có vẻ hoàn hảo siêu thực. Nhiều bức ảnh còn có tính nghệ thuật cao, bóng bẩy, long lanh, điều này thường khó đạt được trong studio khi chụp. Nền trong các bức ảnh do AI tạo
Nguồn: GenK