
ערכת שאלות לפוליטיקאים
רוצה את מיטב הכתבות והתחקירים של שקוף ישירות לתיבה? פה נרשמים לניוזלטר:
רוצה את מיטב הכתבות והתחקירים של שקוף ישירות לתיבה? פה נרשמים לניוזלטר:
האם אנו יודעים להתמודד עם האיום החדש על תהליכים דמוקרטיים, בדמות קמפיינים דיגיטליים מתוחכמים העושים שימוש בכלי בינה מלאכותית משכנעים, זמינים וזולים? מחקר שפורסם בדצמבר האחרון במגזין Nature, אחד מכתבי העת המדעיים היוקרתיים והמשפיעים בעולם, מספק תשובה מדאיגה.
החוקרים הדגימו לראשונה, באמצעות ניסויים מבוקרים שנערכו במספר מדינות, כי דיאלוגים עם מערכות שיחה מבוססות בינה מלאכותית (AI) מסוגלים לשנות עמדות פוליטיות באופן מדיד. במילים אחרות: הם חשפו מנגנון השפעה פוליטית חדש, יעיל וכזה המסוגל לפעול בקנה מידה עצום.
הבוחר יכול להיתקל בצ'אטים כאלה בכל רחבי החיים הדיגיטליים: ברשתות החברתיות, בתוכנות מסרים כמו ווטסאפ וטלגרם או באפליקציות שמציעות עוזרי AI. בכל הזירות האלה, שאין מי מאיתנו שלא נחשף לפחות אל חלקן מדי יום, מערכות שיחה של בינה מלאכותית זמינות לשימוש ויכולות לנהל דיאלוגים עם משתמשים פרטיים על נושאים פוליטיים.
החוקרים מדדו שינויי עמדות אצל אלפי משתתפים בארה"ב, קנדה ופולין. הממצא המרכזי חד וברור: שיחה אחת קצרה עם צ’אטבוט יכולה להזיז עמדות פוליטיות באופן מובהק. בארה"ב, מצביעים ימניים שנחשפו בשיחה לטיעונים בעד מועמד דמוקרטי שינו את מידת תמיכתם בו באופן ניכר. בקנדה ובפולין, ההשפעה הייתה אף גבוהה יותר.
המחקר מדד את השינוי באמצעות נקודות: המשתתפים דירגו את עמדתם כלפי מועמד או עמדה פוליטית על סקאלה מספרית לפני ואחרי השיחה עם הצ’אטבוט. תזוזה של 10 נקודות (כפי שנמדדה בפולין וקנדה), או אפילו של 3.9 נקודות (כפי שנמדדה בארה"ב), היא תנועה ממשית לכיוון המועמד שהצ’אטבוט קידם.
מדובר בשינוי משמעותי במיוחד משום שהוא נוצר בעקבות שיחה אחת קצרה בלבד, ולא לאחר קמפיין מתמשך או חשיפה חוזרת. אמנם החוקרים עצמם מזהירים כי שינוי עמדות אינו בהכרח מתורגם אוטומטית להצבעה בקלפי, אך האיום על טוהר הבחירות – ברור.
תוצאות הניסוי מערערות הנחות לפיהן בוחרים חסינים לשכנוע טכנולוגי, וממחישות כיצד צ’אטבוטים מבוססי AI מאפשרים הפצה יעילה במיוחד של מסרים פוליטיים מותאמים אישית – מנגנון סופר אפקטיבי, הרבה יותר משכנוע המוני בדמות תעמולה מהסוג המוכר. ובמיוחד: כזה שפועל ללא שקיפות, ללא פיקוח וללא מעצורים.
בישראל בה הקואליציה נשענת על רוב דחוק, מספיקה תזוזה של מנדטים בודדים כדי לשנות את המפה הפוליטית ולהכריע מי לשלטון ומי לאופוזיציה. לכן, פוטנציאל ההשפעה של שינוי עמדות בהיקף של 2-10 נקודות בעקבות שיחה אחת בלבד עם צ'אט פוליטי, הוא דרמטי ובעל השלכות רחבות על הבחירות הקרבות.
מעניין לא פחות הוא האופן בו הבינה המלאכותית שכנעה את המשתתפים בניסוי. החוקרים ניתחו בדיעבד את השיחות ומצאו שה-AI לא הפעיל מניפולציות רגשיות, לחץ חברתי או טריקים פסיכולוגיים קלאסיים. הוא שכנע בעיקר באמצעות הצגת עובדות, נתונים וטיעונים רציונליים. כדי לוודא שזה אכן מנגנון ההשפעה, ערכו החוקרים ניסויים נוספים בקנדה ובפולין שבהם אסרו במפורש על הצ'אטבוט להשתמש בעובדות וראיות. ברגע שעשו זאת, אפקט השכנוע קרס, לעיתים ביותר מ 50%.
לכאורה- מצויין! מה טוב יותר מדיון מבוסס עובדות וראיות? אבל כאן מתגלה הבעיה האמיתית. בדיקת עובדות חיצונית העלתה שחלק מהטענות שה-AI הציג כעובדות היו חלקיות, סלקטיביות או פשוט לא נכונות. לא מדובר במניפולציה מכוונת במובן הפסיכולוגי, אלא בשימוש בטיעונים שנשמעים עובדתיים, אך כוללים חצאי אמת, הטיה או שגיאות של ממש.
וזה לב העניין: יכולת השכנוע של ה AI אינה נובעת ממניפולציות מתוחכמות, אלא מהצגת טיעונים המתחזים ל"עובדות" ול"ראיות". המודל לא מבחין בין אמת לשקר, אלא בין טיעון שנשמע סביר לכזה שלא. הוא מסוגל לייצר נרטיב משכנע גם כשהוא מבוסס על חצאי אמיתות או שקרים ממש. ובעגה הצבאית: "נכון או לא נכון – חרטט בביטחון". וזה עובד, ובגדול.
כך נוצר איום חדש על הדמוקרטיה: לא תעמולה גסה ולא דיסאינפורמציה בוטה, אלא שכנוע שקט, רציונלי לכאורה, סמכותי וקשה בהרבה לזיהוי. וכך הגבול בין טיעון לגיטימי לבין דיסאינפורמציה מיטשטש, במיוחד כשהניסוח בטוח בעצמו ומשכנע.
מחקר נוסף, של פרופ’ קייבאן ואקילי (LBS) ועמיתו בריאן סטרוב, שממצאיו כבר מוצגים לציבור אך טרם פורסמו רשמית, מחזק את התמונה. גם במשימות פשוטות ולא פוליטיות כמו שאלה מתמטית בסיסית, ל-AI יש השפעה חזקה על שיקול הדעת שלנו.
בשלב הראשון בניסוי של ואקילי וסטרוב הוצגה למשתתפים שאלה מתמטית כלכלית שרובם ענו עליה נכון. בשלב השני חלק מהמשתתפים נחשפו לטיעונים ש-ChatGPT ייצר לתשובה הנכונה, וחלקם לטיעונים של ChatGPT לתשובה שגויה. הצ'אט הציג את ההסבר בביטחון ובשפה מקצועית. גם את זה הנכון – וגם את זה המוטעה.
בעקבות קריאת הסבר שגוי שהצ'אט הציג בביטחון ובשפה מקצועית, יותר מ-50% מהמשתתפים שענו נכון בתחילה – שינו את תשובתם לשגויה. זהו אמנם working paper שטרם עבר ביקורת עמיתים, אך ממצאיו משתלבים בדפוס רחב ומדאיג.
מדובר באיום אקטואלי וממשי. החסם הטכנולוגי והכלכלי כמעט נעלם. היכולת לייצר צ’אטבוטים פוליטיים או שכנועיים כבר אינה מורכבת ואינה שמורה למדינות או לשחקנים עתירי משאבים. מודלי שפה גדולים זמינים, זולים וקלים להפעלה באמצעות הנחיות פשוטות. במקום קמפיינים יקרים וכפופים לרגולציה, ניתן כיום לייצר במהירות ובעלות נמוכה אלפי שיחות "אישיות" שנראות לגיטימיות, רציונליות ובלתי מזיקות אך יוצרות יחד כוח השפעה מצטבר אדיר.
מדינות רבות כבר מקדמות רגולציה לשימוש ב-AI בהקשרים פוליטיים: חובת גילוי, מגבלות פרסום, מנגנוני פיקוח. לעומתן, מדינות שבהן החקיקה מתעכבת נותרות חשופות. אם שיחה אחת מסוגלת להזיז עמדות בכמה נקודות, אלפי או מאות אלפי שיחות אוטומטיות עלולות לייצר הטיה מצטברת בעלת משמעות אלקטורלית כבדה.
בדיון שנערך בוועדת הבחירות בדצמבר אשתקד הזהיר ח"כ איתן גינזבורג כי ישראל מנסה להתמודד עם עולם טכנולוגי חדש באמצעות כלים מיושנים, שאינם מותאמים לעוצמת ההשפעה ולמהירות ההתפתחות של מערכות AI בזירה הפוליטית.
מנכ"לית ועדת הבחירות, אורלי עדס, חידדה את הבעיה: חוק דרכי התעמולה משנת 1959 אינו אוסר על שימוש בשקרים בתעמולת בחירות, וליו"ר ועדת הבחירות אין סמכות למנוע שימוש בבינה מלאכותית או לפקח על קמפיינים חיצוניים. המשמעות ברורה – בישראל אין לרגולטור יכולת לפקח, בטח שלא להתמודד בזמן אמת, עם טכנולוגיות שמסוגלות להשפיע על דעת קהל בקנה מידה רחב.
במערכת הבחירות הקרובה השאלה לא תהיה אם היא מושפעת מבינה מלאכותית, אלא עד כמה ומי יהיו השחקנים שיפעילו אותה וייהנו מהיכולת המתוחכמת שלה לשכנע ולשנות עמדות של הבוחר הישראלי. על השאלה אם המחוקקים והציבור ערוכים להתמודד עם מציאות פוליטית חדשה, שתעוצב על ידי מי שישתמש בטכנולוגיה באופן המהיר, היעיל והזדוני ביותר, נראה שכבר יש לנו תשובה. למרבה הצער, היא שלילית.
עו"ד יהודית פינטוב היא עמיתת מחקר בכירה במכון ברנדייס
ב"יום שאחרי" אנחנו אלה שנשאר. כי עיתונות בבעלות הציבור אי אפשר להשתיק