בעידן שבו בינה מלאכותית מסוגלת לייצר תכנים ויזואליים ברמה ריאליסטית במיוחד, קשה יותר ויותר להבחין בין אמת לבדיה. מאז תחילתו של מבצע "עם כלביא", מופצים ברשתות החברתיות סרטונים רבים המתעדים כביכול פגיעות טילים בישראל, אך חלקם נוצרו באמצעות בינה מלאכותית.
גם הדמויות הציבוריות לא חסינות לטעות. כך, למשל, ציפי רפאלי, אמה של הדוגמנית בר רפאלי - שיתפה בסטורי שלה שורת סרטונים של הבעות תמיכה מרחבי העולם בישראל. אלא, שאחד הסרטונים, תפס את עיניינו והעלה חשד כי מדובר בתוכן מזויף.
לצורך בירור, שלחנו את הסרטון לכתב הטכנולוגיה של "מעריב", שהצביע על מספר פרטים המעידים בבירור על כך שמדובר ביצירה של AI.
שגיאות בעיצוב הגרפי של חדשות 12: בסרטון מופיעה לכאורה כתבה של חדשות 12, אך סמל הערוץ, שכולל את המספר 12 עם דגל ישראל – אינו מופיע כלל בסרטון שפרסמה רפאלי. גם סגנון הגרפיקה, כמו הקוביות הלבנות בצד הטקסט "מלחמה עם איראן", אינו תואם את העיצוב הרשמי.
עיוותים בפונטים ובמעברי צבע: בחלק מהפריימים ניתן להבחין באי-דיוקים בפונט, צלליות לא עקביות סביב טקסטים, והבלחות צבע שלא נראות בערוצים מקצועיים. אלו סימנים אופייניים ל-generative AI.
מוזיקה ואפקטים קוליים לא אותנטיים: הצלילים בסרטון נשמעים לעיתים גנריים ומנותקים מהאירוע, מה שמעיד שלא מדובר בשידור חדשותי מקורי.
הטעות של ציפי רפאלי היא אנושית, ובעידן של עומס מידע ודיסאינפורמציה, היא גם לגמרי מובנת, אבל היא תזכורת חשובה לכולנו: לפני שמשתפים, כדאי לעצור לרגע, לבדוק ולהצליב. הבינה המלאכותית משתפרת מרגע לרגע, וגם העין המנוסה ביותר עלולה ליפול בפח. דווקא עכשיו, כשכולנו צמאים לאמת - האחריות עלינו גדולה מתמיד.