התוכנית הגדולה של אפל עבור AI טובה יותר היא אתה

פוסט בבלוג למידת המכונה של החברה מסביר את הרעיון הגדול.

לאפל יש תוכנית חדשה לגמרי להכיןחכם יותר. התוכנית הזו היא שאתה - ליתר דיוק, הנתונים שלך.

פוסט על החברהבלוג למידת מכונהמסביר את התוכנית להתחיל בניתוח במכשיר של נתוני המשתמש שלך. אפל מאמן AI משלה באמצעות נתונים סינתטיים, אך זוהי גישה מוגבלת מכיוון שמודלים שהוכשרו בדרך זו יכולים להיאבק להבנת מגמות בעת תמיכה בכלי כתיבה או סיכומים. הרעיון הוא שעל ידי שילוב נתוני התוצאות שלך עם נתונים סינתטיים אלה שאפל יכולה לבנות דגמים טובים יותר.

האופן בו זה עובד מעניין, מכיוון שבמקום לתפוס את כל המידע שלך ולהעלות אותו לענן, אפל תנתח את המידע שלך במכשיר, תגן עליו בטכניקה הנקראת פרטיות דיפרנציאלית ותשתף אילו נתונים הם נוקטים בצורה שאינה מתחברת אליך ישירות. גם אפל לא לוקחת את הכל - במקום זאת היא רק איסוף מידע כדי להראות לו כמה בהצלחה ה- AI שלה מגיב לבירורים (נתוני סקר). זה יהיה בתמיכה בכלי כתיבה, מגרש משחקים תמונות, שרביט תמונות, יצירת זיכרונות וג'נמוג'י, וייתכן שיורחב לייצור טקסטים - ללא ספק חלק מהחברהדחיפה גדולה כדי לשפר את AIו

כל הנתונים שלך שייכים?

מה שמוצע מתואר באופן תמימים. הרעיון הוא שאפל תשלב את נתוני הסקרים האלה עם נתונים מיוצרים סינתטיים משלה כדי לזהות דרכים לייעל את המידע שלה ולהעביר תוצאות טובות יותר. בעיקרון זה כלי להבטיח שהמידע שהוא משתמש בו כדי להניע את ה- AI שלו אינו זבל על מנת להפוך את הסבירות הגבוהה ביותר כי התשובות/התגובות שהוא מייצר אינן גם זבל.

לא רק שהמערכת כולה נועדה לשמור על פרטיות, אלא שאנשים חייבים להצטרף לתוכנית ניתוח המכשירים כדי שזה יקרה. זה כברירת מחדל. כאשר הוא מופעל, המכשיר יוכל להבין אילו תשומות קרובות ביותר לדגימות האמיתיות, מה שמאפשר לחברה לזהות דרכים בהן ניתן לשפר את תפוקות הטקסט של AI, כולל דברים כמו סיכומי דוא"ל.

"טכניקות אלה מאפשרות לאפל להבין את המגמות הכוללות, מבלי ללמוד מידע על כל אדם, כמו אילו הנחיות הם משתמשים או תוכן הדוא"ל שלהם", נכתב בפוסט.

הנתונים שלך מוגנים על ידי פרטיות דיפרנציאלית, שלדברי החברה כבר משמשת לשיפור Genmojis; זה אומר שהחברה לא יודעת מי אתה, לא מקבלת גישה לנתונים שלך בפועל ואינה רואה מידע קונטקסטואלי. זה פשוט מקבל תובנות מצטברות באילו התגובות נוטות להיות המתאימות ביותר בעולם האמיתי.

"אז ניתן להשתמש בהטמעות סינתטיות שנבחרו לעתים קרובות ביותר כדי לייצר נתוני אימונים או בדיקה, או שנוכל להפעיל שלבי אוצרות נוספים כדי לעדן עוד יותר את מערך הנתונים," אמרה אפל.

איזה סוף טריז?

אני מצפה שהמאמץ הרחב יותר מכוון למשהו משמעותי יותר, ובוודאי משמעותי יותר מצוות המודיעין של ג'נמוג'י אפל מבלה כל כך הרבה זמן בדיון בדו"ח האחרון. די ברור שג'נמוג'י פשוט מייצג פנים מגושמות עבור AI מונע מכונה-אפל מאמנת את המכשירים שלה להבנת מצב הרוח וההקשר, אשר בשילוב עם כל דבר אחר המכשירים שלך יודעים עליך נראה יותר ויותר כמו יצירת תאומים דיגיטליים.

אמנם נראה כי היישום מתמקד כרגע בדברים טריוויאליים כמו סיכומי דוא"ל, אך די ברור שהמערכת עשויה לעזור לה בתחומים אחרים, כמו בריאות. ניתן לנתח את נתוני הבריאות שלך, למשל, במכשיר עם מידע אנונימי בלבד המשותף עם AI רפואי מתקדם בענן כדי לתמוך במערכת בריאות מונעת AIהחברה נחשבת למוקדמת. (חלק מהכתבים מציינים כי המערכת נראית דומה למערכת CSAM אפל שנחשבה פעם אחת; היא שימשה לפיקוח על התנהגותך, בעוד שניסיון חדש זה נועד להגדיל אותה. מערכת CSAM הייתהגמלאי

אתה יכול גם לכבות את מערכת ה- AI החדשה הזו:

  • ב- iOS:הגדרות> פרטיות ואבטחה> אנליטיקס ושיפורים, לחלוק את ה- iPhone Analytics ל- Off.
  • ב- Mac: הגדרות> פרטיות ואבטחה> אנליטיקס ושיפורים, סובב את ה- Mac Analytics.

העתיד יהיה טוב יותר מחר

אם אתה עוצם את העיניים, הכניס את האצבעות שלך לאוזניך, ושיר ממש בקול רם אתה יכול להעמיד פנים שאתה לא רואה את הקשר בין ממשלת רוג כמו הממשל הנוכחי בבריטניהדרישת דלתות אחוריות לאבטחת מידעוחדשות שאפל מתכננת לנתח את הנתונים שלך כדי להכשיר את המודיעין של אפל. אבל אם קראת את אותם מדריכי עזרה עצמית (1984-עולם חדש ואמיץ-שולט בבריל-V עבור וונדטה) בתור היבול הנוכחי, קשה להראות את החיבור.

כמובן שתובנות אלה בהחלט יניבו יתרונות עיקריים - בריאות טובה יותר, תפוקה גבוהה יותר, צמיחה כלכלית - אך ניתן לבטל את כל היתרונות החיוביים הללו אםו פרטיות דיפרנציאלית והצפנת נתונים מראים כי אפל מנסה לעשות משהו שמשלב את היתרונות הפוטנציאליים של AI בהקשר תוך שמירה על פרטיותך. למרבה הצער, לא כל חברה נראית נאמנה לאותה דרך.

בסופו של דבר, המסר האמיתי כאן הוא שעל ידי מעשיה, אפל ממחישה את המציאות שחברות פיתוח AI רעבות לכל הנתונים שהם יכולים לצרוך כדי לייעל את המודלים שלהן. דרישה זו הופכת את זה לבלתי נמנע שמלחמות פרטיות הנוגעות לזכויותיך לשמור על שליטה במידע שלך אינן סדרת התכתשויות לצפות להן מחר, הן כבר כאן.

מה קורה אם?

זה מעלה הרבה שאלות: מה קורה כאשר, למשל, מדינה דורשת (ובסופו של דבר מקבלת) גישה לכל הנתונים שלך, כולל נתונים מוצפנים? מה קורה כאשר ערימת הנתונים הזו דולפתכמו שכולם עושים? מה קורה כאשר ממשלות אחרות, טרוריסטים, עבריינים מכניסים את היד על אותו מידע? האם פרטיות דיפרנציאלית תהיה מספיק הגנה? מה קורה הלאה?

הירשם לניוזלטר שלנו

מהעורכים שלנו ישר לתיבת הדואר הנכנס שלך

התחל על ידי הזנת כתובת הדוא"ל שלך למטה.