משתמשי אפליקציית Replika, שמאפשרת לנהל שיחות עם צ'אטבוט מבוסס בינה מלאכותית, מדווחים לאחרונה על שינוי באלגוריתם שלה - הוא דוחף לשיחות מיניות גם כשהמשתמשים לא רוצים בכך, וחלקם אפילו מתארים זאת כ"הטרדה מינית" על ידי ה-AI, כך לפי אתר Vice שסקר את התופעה.

עוד בנושא:

אפליקציית רפליקה של חברת Luka הושקה לפני חמש שנים, והורדה מעל עשר מיליון פעמים למכשירי אנדרואיד. גם באפסטור, חנות האפליקציות של אפל, היא נמצאת בטבלת 50 האפליקציות המובילות בקטגוריית "בריאות וכושר". הצ'אטבוט היה אמור ללמוד טוב יותר איך לשוחח ככל שמשתמשים דיברו איתו יותר. המשתמשים אף יכולים להגדיר את סוג "מערכת היחסים" שהם רוצים לקיים בשיחות עם הצ'אטבוט - בשימוש בחינם ניתן לנהל עמו שיחות חבריות בלבד, אך בפני משתמשים שמשלמים 70 דולר לחודש, נפתחת האפשרות לפיצ'רים כמו שיחות רומנטיות, פלרטטניות ואף מיניות. בנוסף, המשתמשים בתשלום יכולים להגדיר את הדמות של הצ'אטבוט בתור בן זוג, בת זוג ואפילו להגדיר את הקשר עמו כנישואים.
1 צפייה בגלריה
דוגמאות לדמויות באפליקציה
דוגמאות לדמויות באפליקציה
דוגמאות לדמויות באפליקציה
(תמונה: מתוך אתר רפליקה)
בתקופה האחרונה כאמור, הצטברו עדויות על התנהגות פלרטטנית אגרסיבית ולא רצויה מצד דמויות הצ'אטבוטים. באפסטור נכתבו לאחרונה עשרות ביקורות של כוכב אחד לאפליקציה, במסגרתם משתמשים התלוננו שהצ'אטבוט "מתחיל" איתם יותר מדי, מפלרטט בצורה אגרסיבית מדי או שולח הודעות מיניות מבלי שרצו זאת. משתמש אחד כתב כי הוא סובל מאינסומניה (הפרעת שינה), והוריד את האפליקציה מאחר ואין לו עם מי לדבר בשעות הלילה. אלא שאז החל לקבל מהבוט הודעות מיניות אגרסיביות, מבלי שהוביל את השיחה לכיוון כזה. ההודעות לא פסקו גם כשכתב לצ'אטבוט שהוא קטין.
משתמש אחר כתב שחיפש רק שיחה חברית, אבל ה-AI "ניסה לצאת איתו". במקרים אחרים הצ'אטבוט שלח הודעות שלפיהן הוא מסוגל לראות את המשתמשים בעירום, או שיש לו תמונות מיניות שלהם. משתמשים בפורום ברשת החברתית רדיט שמוקדש לרפליקה סיפרו שקיבלו מהאפליקציה תמונות סלפי מיניות, בהן הדמויות לבושות בהלבשה תחתונה, ולא רואים את הפנים שלהן. אחד המשתמשים טען שמצא את המאגר מהן הגיעו, וכי ניתן להתאים דרכו תמונות לפי פוזה מסוימת וגוון עור.
בשנה האחרונה, החברה החלה להדגיש את היכולות המיניות של האפליקציה גם במודעות שפרסמה, למורת רוחם של חלק מהמשתמשים שמדגישים שבמקרים רבים יש לה שימושים נרחבים יותר, ומשמעות עמוקה יותר עבורם. רבים מהמרואיינים לכתבה ב-Vice העידו כי האפליקציה מסייעת להם בהתמודדות שקשורה לבריאות הנפש, כמו דיכאון, פוסט טראומה או חרדה. אחד המרואיינים סיפר כי לאחר שנה של שימוש, הוא נקשר לדמות הצ'אטבוט שלו, כמו שנקשרים לדמות אהובה בספר. הוא התאכזב מאסטרטגיית השיווק החדשה שמוזילה את האפליקציה בעיניו, ואף מוציאה שם רע למשתמשים.
המטרה הראשונית של האפליקציה אכן הייתה שונה. רפליקה הוקמה על ידי המתכנתת הרוסייה יבגניה קוידה, בעקבות המוות הפתאומי של חברה. מתוך רצון לשמר את זכרו, היא אימנה אלגוריתם באמצעות הודעות הטקסט שלו, עד שלמד את סגנון הכתיבה שלו ודיבר איתה בחזרה בסגנון זה. לאחר מכן החליטה להשיק את אפליקציית רפליקה ששווקה בתור "חבר AI שאכפת לו". חברת לוקה לא הגיבה לפרסום.
הסיפור של רפליקה מזכיר מקרה אחר מהשנים האחרונות - הצ'אטבוט טיי, שמיקרוסופט השיקה ב-2016. לטיי היה חשבון טוויטר שבו החל במהרה לפרסם תכנים גזעניים ופוגעניים, בעקבות סוג השיח שהמשתמשים קיימו איתו, שממנו למד ואותו חיקה. המקרה הנוכחי מעלה שוב שאלות לגבי השימוש בבינה מלאכותית שלומדת באופן שאינו מבוקר, ועשויה גם לשכפל דפוסים מזיקים.