כלי AI גנוציטיבי יכולים לומר את הדברים הכי מתוחכמים. אולם העזרה בדרך בצורה של התאמה אישית ושיטות מתקדמות למיקור נתוני ההדרכה.
מאז Openai, דגם השפה הגדול (LLM) מבוסס על מהפכת AI (GENAI) מבוססת (GENAI) התקדמה בקצב מדהים.
לפני שנתיים וארבעה חודשים היו לנו רק צ'טגפט. כעת, יש לנו GPT-4.5, Claude 3.7, Gemini 2.0 Pro, Llama 3.1, Palm 2, Perplexity AI, Grok-3, Deepseek R1, Llama-13B ועשרות כלים אחרים, החל מ- Free ל- 20,000 $ לחודש עבור השכבה העליונה של מערכת המפעיל של Openai.
הקונצנזוס הוא שהם מתקדמים במהירות. אך נראה שכולם תקועים בשלוש בעיות מהותיות המונעות את השימוש המלא שלהן על ידי משתמשים עסקיים: התגובות שלהם הן לרוב 1) גנריות, 2) הזיות ו/או 3) נפגעות על ידי חבלה מכוונת.
ננקטת פעולה רצינית כדי לטפל בבעיות הללו, ואגיע לזה בעוד רגע.
בעיה מס '1: פלט גנרי
גנאי צ'אט בוטים מניבים לעתים קרובות תוצאות גנריות מדי או חסרות ניואנסים, יצירתיות או התאמה אישית. סוגיה זו נובעת מהסתמכותם על נתוני אימונים רחבי היקף, המסיימים אותם לתגובות ברמת השטח ותכנים הומוגניים המשקפים סוג של ממוצע.
המבקרים מזהירים גם את "קריסת המודל", שם אימונים חוזרים ונשנים על נתונים שנוצרו על ידי AI מחמירים את הבעיה על ידי הפחתת השונות והמקוריות לאורך זמן.
בעיה מס '2: פלט הזיה
לעתים קרובות מדי ממה שרוצה, AI Chatbots מייצרים תגובות לא מדויקות או לא רגישות בעובדה המוצגות ביטחון. זה מפתיע אנשים, מכיוון שהציבור מניח שלעתים קרובות AI Chatbots יכול לחשוב. אבל הם לא יכולים.ניבאו את המילה או הביטוי הבאים המבוססים על הסתברויות הנגזרים מנתוני אימונים ללא ההבנה הקלה ביותר של המשמעות או כיצד המילים הללו מתייחסות לעולם האמיתי.
בהרכבה את הבעיה, נתוני ההדרכה מכילים בהכרח הטיות, אי דיוקים או נתונים לא מספיקים, על סמך התוכן שאנשים שהפיקו.
כמו כן, LLMs לא "מבינים" את המילים שהם מתכנסים בתגובותיהם ואינם משווים אותם להבנה של העולם האמיתי. עורכי דין הסתבכו על כך שהפכו את טיעוניהם החוקיים לצ'אט בוטים, רק כדי להיות נבוכים בבית המשפט כאשר הצ'אט בוטים מהווים תיקים שלמים כדי לציין.
ל- LLM, מחרוזת מיליםצליליםכמו מקרה ומחרוזת מיליםמתייחס למקרה בפועלנטען בבית משפט אמיתי זה אותו דבר.
בעיה מס '3: פלט חבלה בכוונה
חברות Chatbot אינן שולטות בנתוני ההדרכה, כך שהם יכולים ויוכלו להיות מוגדרים. דוגמה נמרצת אחת מגיעה מהממשלה הרוסית, שנתפסה בביצוע "טיפוח LLM" בקנה מידה מסיבי.
נקראת רשת "Pravda" (נקראת גם "פורטל קומבט"),מומחי דיסאינפורמציה העובדים בממשלת רוסיהפורסם - האם אתה יושב? - 3.6 מיליון מאמרים ב -150 אתרים בשנת 2024. זה 10,000 מאמרים ביום, כולם דוחפים כמה מאות טענות שווא העדיפות את האינטרסים של רוסיה, כולל שקר על מלחמת רוסיה/אוקראינה. המאמרים פורסמו עם SEO מעוצב במומחיות אך כמעט לא קיבלו תנועה. הם היו קיימים להכשיר את הצ'אט בוטים.
כתוצאה מטיפוח LLM זה, שומר החדשות של קבוצת כלבי השמירה מצא כי כשנשאל על תוכן הקשור לרוסיה, 10 הצ'ט-בוטים המובילים-Chatgpt-4O, You.com, Grok, Pi, Le Chat, Microsoft Copilot, Meta AI, Claude, Gemini של גוגל, and Poolplexity-הפיקו את ה- Pravda Time.
"Pravda" עוסק בגרסה קיצונית של "הרעלת נתונים", שם המטרה היא לשנות את התנהגותם של צ'אט בוטים, להציג פגיעויות או להשפיל את הביצועים.
שחקנים זדוניים כמו האקרים, חוקרים יריבים, או ישויות עם אינטרסים מוקנים במניפולציה של תפוקות AI יכולות לעסוק בהרעלת נתונים על ידי הזרקת נתונים מזויפים או מוטים לתוכנית אימונים לתמרון תפוקות, להנציח סטריאוטיפים או להציג פגיעות. התוקפים עשויים להקצות תוויות שגויות לנתונים, להוסיף רעש אקראי או להכניס שוב ושוב מילות מפתח ספציפיות להתנהגות מודל. מניפולציות עדינות, כמו התקפות דלת אחורית או שינויים בתווית נקייה, משמשים גם ליצירת טריגרים נסתרים או הטיות בלתי ניתנות לגילוי.
טכניקות אלה פוגעות באמינות, דיוקו ויושרה אתי של המודל, מה שמוביל לתגובות מוטות או למידע שגוי.
מה הענף עושה בקשר לפגמים אלה
אמנם התרגלנו להשתמש ב- Chatbots AI לשימוש כללי לתוצאות מיוחדות, אך עתידו של ג'נאי בעסקים הוא כלים מותאמים אישית למטרה מיוחדת,על פי מחקר חדש מ- MIT(שילם על ידי מיקרוסופט). המחקר נקרא "התאמה אישית של AI Generative לערך ייחודי", המחקר סקר 300 מנהלי טכנולוגיה גלובליים וראיין את מנהיגי התעשייה כדי להבין כיצד עסקים מתאימים LLMs.הדו"חמציג את היתרונות של התאמה אישית, כולל יעילות טובה יותר, יתרון תחרותי ושביעות רצון המשתמשים.
ישנן מספר דרכים שחברות מתחילות להתאים אישית LLMs. אחד מאלה הוא דור אחזור (סמרטוט), שהוא טכניקת ליבה. RAG משפר את תפוקות המודל על ידי אחיזת נתונים ממקורות חיצוניים ופנימיים כאחד, תוך כוונון עדין של ההנדסה המהירה מבטיחה שהמודל באמת מנצל נתונים פנימיים.
על פי הדו"ח, חברות עדיין נאבקות להבין את היבטי פרטיות הנתונים והאבטחה בהתאמה אישית של שימוש ב- LLM.
חלק מהמגמה לכיוון ההתאמה האישית מסתמכת על כלים מתעוררים וחדשים למפתחים, כולל טלמטריה יעילה למעקב וניפוי באגים, גני שעשועים פיתוח מפושטים ותכונות פיתוח וניהול מהירות.
הדרך לאיכות
ספקי LLM מתמקדים גם באיכות התפוקה. חברת AI העסקית,הקשר שיש לך, החודש הציג משהו שנקרא מודל השפה המעוגנת שלו (GLM), שלטענת החברה מהווה התקדמות גדולה ב- Enterprise AI.
ה- GLM השיג ציון עובדות מרשים של 88% על מדד העובדות, והכניס דגמים מובילים כמו GPT-4O של Openai ו- Gemini 2.0 של גוגל.
מודלים של שפה מסורתית נאבקים לעתים קרובות עם "הזיות", שם הם מייצרים תגובות המובילות מהמציאות העובדתית. אי דיוקים אלה יכולים להיות בעלי השלכות חמורות בהגדרות הארגון, כמו פרשנות שגויה של דוחות פיננסיים או פרוטוקולי בריאות. ה- GLM של AI Contextual פונה לכך על ידי סדר עדיפויות של דבקות קפדנית במקורות ידע ולא הסתמכות על נתוני אימונים גנריים, פגומים פגומים או נפגעים.
ה- GLM פועל תחת העיקרון של "נייטרליות פרמטרית", מה שאומר שהוא מדכא הטיות מקדימות לתעדוף מידע המסופק על ידי המשתמש. זה בו זמנית סוג של התאמה אישית וגישה הטיה (להטיה את ה- LLM במקורות טובים יותר). ה- GLM יכול גם לספק תגובות עם המקור האיכותי המשובץ בתגובה, מה שמקל על המשתמש לבדוק עובדות.
כל הצ'אט בוטים צריכים לעבוד יותר כמו GLM של AI הקשר.
אמנם לפעמים זה יכול להרגיש כאילו הענף נטען קדימה ומתעלם מהנתונים הגנריים, ההזיות או הפגיעה במכוון, האמת היא שחברות מתנערות גם מבעיות אלה ומתן פתרונות.
כקונים או משתמשים בצ'אט בוטים מבוססי LLM, התפקיד שלנו בהתפתחות קטגוריה זו של משאב מידע הוא לשמש כלקוחות הבחנה על סמך השימוש שלנו, לא על הבזקות של צ'אט בוט או, למשל, את המידה בה הקול הנשמע שלו נשמע כמו אדם אמיתי. המפתח הוא איכות התפוקה שלו.
אל תסתפק בתכנים גנריים ובשקר. ניתן להשיג אלטרנטיבות טובות יותר באמצעות התאמה אישית ובחירת צ'אט בוטים המותאמים לתעשייה שלך - ולסיפר את האמת לעתים קרובות יותר.