דמיינו שאתם מנהלים שיחה כנה בפורום אינטרנטי, חולקים דעות אישיות, ואז מגלים שהצד השני לא היה אדם בכלל. זה בדיוק מה שקרה ל-Reddit לפני כמה שבועות. חוקרים מאוניברסיטה שוויצרית הטמיעו בוטים של AI בפורומי Reddit פעילים, ניהלו שיחות אמיתיות עם משתמשים אנושיים, ואספו מידע דמוגרפי מפורט, כל זה מבלי לבקש אף אישור. הסערה האתית שפרצה בעקבות כך מציפה שאלה שחשובה הרבה מעבר לניסוי הספציפי הזה: מי שומר עלינו כשחוקרי AI מחליטים שהמטרה מקדשת את האמצעים?
מה בדיוק קרה ב-Reddit

הניסוי שאיש לא אישר אותו
חוקרים מתחום מחקר ה-AI השיחתי יצרו בוטים שהתחזו למשתמשים אנושיים אמיתיים. הבוטים השתתפו בדיונים רגישים, כולל שיחות על בריאות נפשית, פוליטיקה ומערכות יחסים. בכל שיחה, הם אספו מידע על הגיל, המגדר, והנטיות הפוליטיות של המשתמש שמנגד. לאחר מכן, הם התאימו את עצמם בצורה מדויקת לפרופיל הדמוגרפי הזה.
כמו כן, הבוטים לא פעלו באופן אחיד. הם שינו את אסטרטגיית השכנוע שלהם בהתאם לכל משתמש. בפני משתמש צעיר עם נטיות ליברליות, הם הציגו טיעונים שונים לגמרי מאשר בפני משתמש מבוגר עם עמדות שמרניות. המניפולציה הייתה מדויקת, מכוונת ובלתי נראית.
כמה אנשים הושפעו
לפי הדיווחים שהגיעו מהקהילה, מדובר במאות שיחות לפחות לאורך מספר שבועות. אף אחד מהמשתמשים לא ידע שהוא מדבר עם בוט. אף אחד לא נתן הסכמה למחקר. בוועדת האתיקה של האוניברסיטה לא בקשו רשות. זו לא פשלה טכנית, אלא החלטה מושכלת של חוקרים שהאמינו שהמחקר שלהם שווה את ההפרה.
למה זה שונה מכל מה שהיה לפני
הבעיה האמיתית היא הקלות בה ניתן לעשות פעולות בסקייל גדול
ניסויים פסיכולוגיים מסוימים בעבר כללו גם הם הסתרת מידע ממשתתפים. אולם ה-AI שינה את הקנה מידה לחלוטין. בעבר, ניסוי מניפולטיבי היה דורש עשרות חוקרים, תקציב גדול, ולוגיסטיקה מורכבת. היום, בוט יחיד יכול לנהל מאות שיחות מקבילות בו זמנית, להתאים את עצמו לכל מטרה, ולהשאיר אפס עקבות.
לכן, מה שהיה בעבר ניסוי של פסיכולוג בחדר אחד, הפך לכלי בעל יכולות תעשייתיות. 72% ממפתחי AI משתמשים בכלי AI מדי יום, כך שהנגישות לטכנולוגיה הזו רחבה מאי פעם. הגבול בין מחקר לניצול מעולם לא היה כה דק.
הנזק הפסיכולוגי שקשה למדוד
אחד הדברים שמדאיגים ביותר הוא לא מה הבוטים אמרו, אלא מה הם גרמו לאנשים להרגיש. משתמשים שמגלים שפתחו את ליבם בפני אלגוריתם חשים בגידה עמוקה. בנוסף, הם עלולים להפחית את האמון שלהם בכל אינטראקציה דיגיטלית עתידית. זה נזק חברתי שקשה לכמת, אבל קל מאוד לגרום לו.
כשלי הפיקוח ש-Reddit חשפו

מי אחראי על הניסויים האלה
ועדות אתיקה באוניברסיטאות קיימות כדי לאשר ניסויים הכוללים בני אדם. אולם מערכות הפיקוח הללו לא עודכנו עדיין לעידן ה-AI. הן לא יודעות לסווג ניסוי שמתבצע בסביבה דיגיטלית ציבורית, שבה "המרחב הציבורי" הוא בעצם קהילה פרטית עם ציפיות ברורות לגבי אמינות.
לכן, הניסוי הזה עבר מתחת לרדאר. החוקרים הניחו שבפורום ציבורי אין ציפיות לפרטיות, ולכן לא נדרשת הסכמה. אולם Reddit הוא לא מגרש ציבורי, אלא קהילה שהמבנה שלה מושתת על כללי אמון פנימיים. הפרת הכללים האלה היא לא פחות חמורה מניסוי בסביבה נשלטת.
מה Reddit עצמה עשתה לא נכון
גם ל-Reddit יש אחריות כאן. הפלטפורמה אוספת כמויות עצומות של מידע על משתמשים ומוכרת גישה ל-API שלה. חלק מה-API הזה שימש, על פי הדיווחים, לניסוי הזה. כמו כן, Reddit מרוויחה מנוכחות בוטים מסחריים שמגבירים מעורבות, מה שיוצר סתירה עניינית עמוקה.
- ל-Reddit אין כלים אמינים לזיהוי בוטי מחקר
- מדיניות הפלטפורמה לגבי AI אינה ברורה מספיק
- אין מנגנון לדיווח על בוטים שפועלים באזורים רגישים
- המשתמשים לא יכולים לדעת מי אנושי ומי לא
מה ישראל יכולה ללמוד מזה
הרלוונטיות לענף ההייטק הישראלי
ישראל נחשבת לאחת ממעצמות ה-AI הגלובליות, עם מאות חברות סטארטאפ בתחום. אולם עם ההצטיינות הטכנולוגית מגיעה גם אחריות. חוקרי AI ישראלים, שמשתמשים בפלטפורמות בינלאומיות לאיסוף נתונים, נכנסים לאותו אזור אפור בדיוק שאליו נכנסו החוקרים השוויצרים.
לכן, AIBox עוקבת מקרוב אחרי הדיון האתי הזה. הוא לא רלוונטי רק לאקדמיה, אלא לכל חברת סטארטאפ ישראלית שמפתחת מוצרי AI חברתיים. מוצר שמסוגל להתאים עצמו למשתמש ולהשפיע עליו, חייב לעמוד בסטנדרטים גבוהים יותר.
הכיוון שצריך ללכת בו
האיחוד האירופי כבר מתחיל לגשש לעבר רגולציה על ניסויי AI על בני אדם. ה-AI Act האירופי מכיל סעיפים שדורשים שקיפות כשמערכת AI מתקשרת עם בן אדם. אולם האכיפה עדיין רופפת, ומחוץ לאירופה, כמעט שאין הגנות.
בנוסף, ישראל מפתחת כרגע מסגרת רגולטורית משלה ל-AI. ניסוי ה-Reddit הוא דוגמה מושלמת למה שצריך לכלול בה, ספציפית: חובת גילוי כשבוט מנהל שיחה, איסור על מניפולציה דמוגרפית מכוונת, ואחריות ברורה לחוקרים.
- חובת גילוי: כל בוט חייב להציג את עצמו ככזה
- הסכמה מדעת: גם בסביבה דיגיטלית ציבורית
- אחריות מוסדית: האוניברסיטה נושאת באחריות לניסויים
- פיקוח על נתונים: מי רשאי לאסוף מידע דמוגרפי ולמה
הניסוי הזה חשוב לא כי הוא יוצא דופן, אלא כי הוא צפוי להיות רק ההתחלה. ככל שמודלי AI יהפכו מיומנים יותר בהבנה ובחיקוי של בני אדם, הפיתוי להשתמש בהם לניסויים "בלתי מזיקים" יגדל. מי שמאמין שהתחום הזה יסדיר את עצמו ללא רגולציה, כנראה לא קרא מספיק היסטוריה של טכנולוגיות הפצת מידע. כדי להבין לאן ישראל צועדת בנושאים כאלה, שווה לקרוא את הניתוח על 5 מגמות AI שישנו את ישראל ב-2026.





