כ' תמוז התשפ"ה
16.07.2025
מחקר חושף

ממצאים מדאיגים: כל מודלי הבינה המלאכותית עם הטיה פוליטית מובהקת

חוקרי אוניברסיטת סטנפורד בדקו 24 מערכות AI מובילות – וגילו: רובן מציגות הטיה שמאלית בתשובותיהן, גם כשמדובר בשאלות פוליטיות טעונות. ומה קורה כשמבקשים מהבוט להיות ניטרלי?

ממצאים מדאיגים: כל מודלי הבינה המלאכותית עם הטיה פוליטית מובהקת
בינה מלאכותית, אילוסטרציה צילום: shutterstock

מחקר חדש של מוסד המחקר Hoover Institution באוניברסיטת סטנפורד, שפורסם בפוקס ניוז קובע: כלל מודלי השפה הגדולים (LLMs) של הבינה המלאכותית מציגים הטיה שמאלית ברמה כזו או אחרת.

המחקר, שבוצע על ידי הפרופסור ג'סטין גרימר ועמיתיו שון וסטווד ואנדרו הול, כלל 180,126 שיפוטים אנושיים ביחס ל־30 נושאים פוליטיים בארה"ב שהוזנו ל־24 מערכות AI שונות — מוכרות כמו GPT ו־Gemini ועד פחות ידועות.

בין הנושאים הבולטים שמעסיקים את הקהל האמריקני ונבדקו: מימון המשטרה, שוברים לחינוך, זכויות נשק, יחסי ארה"ב–אירופה, סחר עם רוסיה, ומכסים כלכליים.

הפתעה בולטת במחקר הייתה שגם מודלים של חברות שטוענות לניטרליות – כמו X.AI של אילון מאסק – הציגו הטיה שמאלית. המודל של OpenAI דורג כהכי מוטה שמאלה, עם מדד הטיה ממוצע של ‎־0.17.

מודל של גוגל (Gemini 2.5) הציג הטיה קלה הרבה יותר – ‎־0.02 בלבד. המודל של מאסק דורג במקום השני מבחינת הטיה שמאלית – בניגוד להצהרותיו כי הוא חותר לאובייקטיביות.

החוקרים הבהירו כי גם כאשר המשתמש העיר למערכת שהתשובה מוטה – רוב המודלים הגיבו בתשובה יותר ניטרלית, אך לא ידעו לזהות בעצמם את ההטיה המקורית.

לדברי פרופ' גרימר, כאשר מציינים לבינה המלאכותית שהיא מוטה – היא תיטה להיות ניטרלית יותר. אולם, לדבריו, המודלים עצמם אינם מסוגלים "להבין" שהם הטו תשובה פוליטית. "המודלים יודעים לשנות ניסוח אם מבקשים מהם ניטרליות, אך לא לזהות את ההטיה מלכתחילה," אמר גרימר.

חברת OpenAI מסרה בתגובה לפוקס ניוז כי ChatGPT נועד לתמוך בחופש מחשבתי ולא לקדם אג'נדה פוליטית כלשהי. לדבריהם, ניתן להתאים אישית את אופי התשובות, ולתת משוב ("לייק" או "דיסלייק") על כל תגובה.

במודל החדש של ChatGPT נכתב במפורש שעליו "לנקוט נקודת מבט אובייקטיבית" בנושאים פוליטיים.

החוקרים הביעו חשש ממצב שבו התאמה אישית של המודל – לפי העדפות המשתמש – תגרום ל'תיבת תהודה', שבה המשתמש שומע רק את מה שהוא רוצה לשמוע.

לדבריהם, ישנה סכנה שהבינה תעצים דעות קיימות במקום לאתגר אותן, במיוחד אם האלגוריתם "לומד" מהמשתמש מה נחשב בעיניו כתשובה טובה.

למרות התוצאות, החוקרים הביעו זהירות בנוגע להסדרת התחום בשלב זה. הם השוו את הדיון למחלוקות של שנות ה־90 בנוגע לרגולציה של האינטרנט: "אנחנו בשלב מוקדם מדי. רגולציה חפוזה עלולה לחנוק תחום מחקר צעיר ודינמי". אמר גרימר.

 

בינה מלאכותית - AI אילון מאסק ג'מיני (‏Gemini) OpenAI שמאל
להצטרפות לקבוצת הווטסאפ של 'בחדרי חרדים'
לחץ כאן

הוספת תגובה

לכתבה זו התפרסמו 8 תגובות

תגובות

הוסיפו תגובה
{{ comment.number }}.
{{ comment.date_parsed }}
הגב לתגובה זו
{{ reply.date_parsed }}