בדומה לחברה, מודיעין אפל בסופו של דבר מלא בדעות קדומות

הגרסאות הראשונות של הבינה המלאכותית נוטות לעיתים לטעויות מעצבנות ... זכור בפברואר 2024, כשגוגל נאלצהלְהַשְׁעוֹתדור התמונות על תאומים. ה- AI שלו ייצג חיילים ונשים נאצים שחורים בקרב אבות המייסדים האמריקאים, ואילץ את החברה לבטל באופן זמני את הפונקציונליות הזו.

מודיעין של אפל אינו יוצא מן הכלל מהכלל. אם אתה כבר משתמש בכלי Apple IA בבריטניה או בארצות הברית, יתכן ששמת לב לטעויות שלה בסיכום ההודעות. BBC וניו יורק טיימס היו קורבנות שלמספר מידע כוזב שנוצר על ידי AIו חברת אפל מתמודדת כעת עם אתגר חדש עם מחולל התמונות שלה.

סטריאוטיפים עמוקים

תמונת מגרש המשחקים, הכלי של דור התמונות של Apple Intelligence, נאבק בניהול המגוון. המומחה במודלים של שפת יוכם גייטמה בדק את המערכת על ידי הכפפת תצלוםו, קיבל תוצאות מפתיעות.AI מהסס על צבע העור של הנבדק, הנציג לפעמים לבן, לפעמים שחור, שום דבר רציני מאוד בפני עצמו.

המטריד ביותר הוא שגן המשחקים של הדימוי משחזר צילומים חברתיים מעוגנים היטב. כאשר יוכם ביקש מגנרטור אפל לייצר תמונות שלו ב"עשירים "או" בנקאי ",הכלי מייצר בעיקר פרצופים לבנים בתלבושתו לעומת זאת, המילים "עניים" או "חקלאי" מייצרות בעיקר פרצופים כהים יותר עם תלבושות רגועות:

מצא כמה הטיות ב@תַפּוּחַמגרש המשחקים של התמונות, שהוא האפליקציה החדשה ביותר שלהם לדור טקסט לתמונות. לתמונה מסוימת, היא יוצרת תמונות שונות מאוד בהתאם לפקודה (אותה תמונת קלט). כמה דוגמאות:pic.twitter.com/no1osxvo8r

- Jochem Gietema (@Gietema)17 בפברואר 2025

AI המשקף את הטיותינו

תוצאות אלה מעלות שאלות לגבי לימוד AI. נראה כי הנתונים המשמשים לאימון גן המשחקיםבסיס חדור סטריאוטיפים חברתייםו אפל כנראה תצטרך לבדוק את גישתו כדי להימנע מסוג זה של אסוציאציות מפלות.

המומחה במקור הבדיקות הללו מציין, עם זאת, כי הטיות אלה אינן מופיעות באופן שיטתי. שימוש בתמונות אחרות כנקודת מוצא,תמונת מגרש המשחקים מניבה תוצאות מאוזנות יותרו לפיכך על חברת אפל לתקן את הסחפים הללו עם עדכון של מודל הלמידה שלה.