דעות

ChatGPT בשירות הפסיכיאטריה: סימולקרה של טיפול

AI, המהפכה הטכנולוגית הבאה, כבר משנה את עולם הטיפול. אפשר ללמד אותה פרוטוקולים טיפוליים כמו CBT ,ACT ,DBT או IPT והיא תגיב ותיתן לכם הנחיות, אבל זה שאתה יודע את הפרוטוקול לא הופך אותך למטפל

ChatGPT. צילום אילוסטרציה

בשנת 2017, ד"ר אליסון דארסי, פסיכולוגית מסטנפורד ייסדה את Woebot, אפליקציה שיושבת על הסמארטפון ומשתמשת בכלים של טיפול קוגניטיבי התנהגותי (CBT) כדי לשנות דפוסי חשיבה.

האפליקציה מנצלת סוג של אינטליגנציה מלאכותית שעובדת על ידי NLP, כדי לנסות להבין מה המשתמש כותב, ומשתמשת במשפטים מוכנים מראש כדי להציע להם אפשרויות אחרות לפרשנות של סיטואציות בחיים. אחת הבעיות עם טיפול קוגניטיבי היא שהוא יכול לעזור מאוד למטופל בזמן שהוא נמצא בטיפול עם מטפל מקצועי, אבל אחרי סיום הטיפול הוא יכול לחזור לדפוסי חשיבה שטבועים בו. לכן, אם אפשר להשתמש בכלי שמתרגל אותך, זה יכול לעזור לשמר את ההצלחה הטיפולית.

החברה טוענת שצוות הפסיכולוגים שמועסק ב-Woebot וכולל רק כ-100 עובדים הצליח לתת מענה מסוים למעל מיליון וחצי מטופלים, רובם באזורים שיש בהם מחסור במטפלים. היום יש כבר עוד אפליקציות כאלו, כמו Happify ו-Replika, וההשקעות בתחום רק מתגברות. הסיבה היא שבכל העולם יש מחסור תמידי בפסיכיאטרים, בפסיכולוגים ובאנשי טיפול מוסמכים. למעשה, גם בישראל לרוב התורים במרפאות ציבוריות יכול להיות בין חצי שנה לשנה ואפילו אצל מטפלים פרטיים יש קושי לקבל מטופלים חדשים.

בטיפול CBT יש צורך בזיהוי דפוסים ומחשבות, לסכם אותם ולהכין אותם לפגישה הבאה. AI יכולה לעזור לנו לעשות את זה בקלות ולפנות את המטופל לעבודה עצמה

אי שם בשנות השישים, ג'וזף וייזנבאום, חוקר ב-MIT פיתח תוכנה בשם Eliza. התוכנה היתה אמורה לחקות טיפול בשיטה שבה המטופל מוביל את הטיפול ואת השיחה ואילו המטפל משקף למטופל את הדברים שהוא אמר. וייזנבאום חשב שהוא יוצר בדיחה וצוחק על שיטת טיפול שפיתח קארל רוג'רס, פסיכולוג ממייסדי הגישה ההומניסטית. חלק מהמשתמשים כל כך התלהבו מהתוכנה, עד שוייזנבאום עצמו נבהל, במיוחד אחרי שהמזכירה שלו ביקשה ממנו לצאת מהחדר "כדי שהיא תוכל לבלות קצת זמן עם אלייזה". במקביל, רופאים התלהבו כי "עכשיו יהיה אפשר לטפל במאות אנשים בו זמנית". בהמשך, וייזנבאום הפך להיות קול ביקורתי כלפי אינטליגנציה מלאכותית אבל זה כמובן היה מאוחר מדי.

סימולקרה של טיפול

מזה שנים יש לרוב האתרים, מגוגל ופייסבוק ועד טיקטוק, מערכות שסורקות דפוסי מילים ומשפטים שהמשתמשים מעלים לאתר, ומצליחות לזהות סימנים מחשידים לאובדנות. במקרים רבים, המערכות הללו מתריעות ישירות למוקדים שיכולים לשלוח שוטרים או אנשי מקצוע אל אותו משתמש ולמנוע פגיעה עצמית.

מערכות כמו Woebot מבוססות על עץ החלטות. אם כתבת X, תקבל תשובה Y אבל בגלל שהתשובות מוכנות מראש, הן לפעמים נראות מלאכותיות מדי. מצד שני, אם Eliza הצליחה בשנות השישים "לעבוד" על אנשים, מה כלים מתקדמים כמו ChatGPT יוכלו כבר היום לעשות?

ChatGPT יכול להתאים את עצמו ואפשר להורות לו לענות כמו שרופא היה עונה באותה מידה שתבקשו שיענה בתור רואה חשבון. אם תנחו את ChatGPT לענות בתור "זיגמונד פרויד", התשובות שתקבלו ייראו שונות מאשר אם תבקשו לענות בתור "ראובן דגן" מהסדרה "בטיפול'. בנוסף, יש לו סבלנות אינסופית, אתם גם יכולים לבקש ממנו שיענה בצורה יותר נחמדה או יותר אסרטיבית ואתם יכולים פשוט לבקש מה שאתם רוצים: רוצים כלים להתמודד עם חרדה. הרובוט יזרוק לכם עשר תשובות אפשריות. פשוט וקל.

Koko היא אפליקציה שמציעה למשתמשים שלה כל מני פיצ'רים של תמיכה רגשית – ממדריכים אונליין ועד צ'אט עם משתמשים אחרים (ויש מאות אלפי משתמשים, בעיקר בני נוער). בתחילת 2023 רוב מוריס, המייסד של השירות, החליט לעשות ניסוי על כ-4,000 משתמשים. אנשים שפנו לשירות כדי לשוחח עם משתמשים אחרים קיבלו במקום זאת תשובות שנכתבו על ידי ChatGPT (בלי לספר להם). בלי קשר לעבירה האתית החמורה של ביצוע ניסוי בבני אדם בלי ידיעתם, החברה החליטה להפסיק את הניסוי די מהר.

למה? כי למרות שבהתחלה המשתמשים הגיבו מהר יותר להתייחסויות של ChatGPT מאשר למה שכתבו להם משתמשים אחרים, אחרי זמן קצר הם קלטו שמי שעונה להם זו תוכנה ולא בני אדם. מסתבר שבני אדם לא באמת רוצים לדבר עם מכונה שעושה סימולציה של אמפתיה. זה פשוט לא אותנטי. המכונה לא משקיעה זמן כדי לחשוב על מה שאמרת. היא לא תחשוב עליך אחרי שהשיחה תסתיים. למעשה, היא לא תחשוב עליך גם בזמן השיחה, אלא רק תזרוק את המילים הבאות שתכנתו אותה לחשוב שצריך לכתוב.

זו לא האינטליגנציה, טמבל

בניגוד למטפלים אנושיים, מטפל AI יכול לפעול 24 שעות ביממה ולהיות שם בשבילך גם בלי שתצטרך לנסוע לקליניקה שלו. הוא יכול לענות לשאלות ולהציע פתרונות מתי שנוח לך. הוא יכול לעקוב אחרי מה שאתה עושה ולזהות דפוסים בהתנהגות או בכתיבה שלך כדי להציע לך תמיכה מדויקת ואישית יותר. הוא יכול גם (אם תאפשר לו) להתחבר לטלפון שלך, לשעון או לכל מכשיר שעוקב אחריך כדי לקבל עוד יותר מידע אישי עליך.

כלים כאלה יכולים להיות מאד יעילים בתוך עולם הטיפול. לדוגמה, בטיפול CBT יש צורך בזיהוי דפוסים ומחשבות, לסכם אותם ולהכין אותם לפגישה הבאה. AI יכולה לעזור לנו לעשות את זה בקלות ולפנות את המטופל לעבודה עצמה. עבור מטפלים, ה-AI יכולה לסכם פגישות ולשלוח למטופל תקציר של הדברים שהוא דיבר עליהם כדי שיזכור לפעם הבאה. AI יכולה לעזור להכין את הרשומה הרפואית של המטופל ולפנות את המטפל לעבודה עצמה, ואפילו אפשר לבקש מה-AI להכין סיכום טיפול, כך שהמטפל יצטרך רק לאשר אותו ובכך לפנות למטפלים זמן לטיפול עצמו. בעוד כמה חודשים או שנים, ה-AI תוכל גם לעשות סימולציה טובה של אמפתיה.

יותר מזה, במקומות שאין בהם קשר, יכול להיות שקשר עם AI יהיה חלופה טובה מספיק להרבה מאוד אנשים.

ברגע שאנחנו מתחילים לשתף את הסודות הכמוסים ביותר שלנו עם מערכות שמנוהלות על ידי גורמים מסחריים, צצה סוגיה של פרטיות ושמירה על המידע שלנו. מי נותן לנו שאם אותן מערכות יידעו הכל על הדברים שמניעים אותנו, לא נמצא את עצמנו עוברים מניפולציות

אבל הרבה פעמים המודלים שעליהם מתבססים הכלים האלה לקבלת החלטות מתבססים על הטיות וטעויות. לדוגמה, אלגוריתמים שהתבססו על מאגרי מידע של אוכלוסיה יהודית יתקשו לזהות בצורה נכונה דפוסים באוכלוסיה ערבית.

בנוסף, ברגע שאנחנו מתחילים לשתף את הסודות הכמוסים ביותר שלנו עם מערכות שמנוהלות על ידי גורמים מסחריים, צצה סוגיה של פרטיות ושמירה על המידע שלנו. מי נותן לנו שאם אותן מערכות יידעו הכל על הדברים שמניעים אותנו, לא נמצא את עצמנו עוברים מניפולציות רגשיות כדי להניע אותנו להתנהגות צרכנית מסוימת או כדי לחזק דעה פוליטית כזו או אחרת. קיימבריג' אנליטיקה כבר הראתה לנו את ההתחלה של השיטות הללו.

לזרוק מילים ולקוות לטוב

אנחנו גם יודעים שהמערכות הללו לא מבינות את מה שהן כותבות וניתן לגרום להן לענות לנו תשובות שלפעמים נראות מגוחכות (ראש ממשלת ישראל התשיעי, מר שמואל חירזי), מסוכנות (כמו להמציא על מישהו שהוא גנב מכוניות), או לטעון שכדאי לכם להיפרד מבן הזוג שלכם. לכן, כדאי לנו להיזהר לפני שאנחנו מפקידים את הבריאות הנפשית של הציבור בידי מכונה חכמה שמחקה אינטליגנציה. הצ'אט לא באמת מבין שכואב לך. לא באמת אכפת לו אם קשה או למה מפריע לך מה אמא שלך חושבת על החבר החדש שלך. הוא פשוט יוצר מילים (אבל איזה יופי של מילים!)

רוב המחקרים על פסיכותרפיה מראים שלהצלחת הטיפול פחות משנה שיטת הטיפול שבה בוחרים אלא משנה הקשר שבין המטפל לבין המטופל. אני יכול לגרום לצ'אט ג'יפיטי לעשות מה שאני רוצה, לכתוב את מה שמעניין אותי, אבל זה לא מחזק את הברית הטיפולית

אפשר ללמד את ה-AI פרוטוקולים טיפוליים כמו CBT,יACT,יDBT או IPT. והיא תגיב למה שאתם עושים ותיתן לכם הנחיות. במקרים רבים ההנחיות האלו יהיו רלוונטיות, בחלקן הגדול הן יהיו מבוססות על מחקרים ומדע. אבל זה שאתה יודע את הפרוטוקול לא הופך אף אחד למטפל, ובטח לא למטפל טוב. המונח שחסר פה הוא ברית טיפולית.

רוב המחקרים על פסיכותרפיה מראים שלהצלחת הטיפול פחות משנה שיטת הטיפול שבה בוחרים אלא משנה הקשר שבין המטפל לבין המטופל. אני יכול לגרום לצ'אט.ג'יפיטי לעשות מה שאני רוצה, לכתוב את מה שמעניין אותי, אבל זה לא מחזק את הברית הטיפולית. זו לא באמת מערכת יחסים טיפולית. שני הצדדים במערכת הזו צריכים להיות מסוגלים לבטא צרכים, לשמור על גבולות, לחשוב ולרצות. אם צד אחד כל הזמן משתנה בהתאם לצורכי הצד השני, זו לא מערכת יחסים, ובטח לא טיפולית.

מטפל לא אמור לומר לך את מה שאתה רוצה לשמוע, אלא את מה שאתה צריך לשמוע. כדי ליצור ברית טיפולית, צריך שני בני אדם לפחות. גם אם AI מסוגלת לעשות סימולציה של סימפטיה, זה עדיין לא בן אדם.

סוף דבר

AI זו המהפכה הטכנולוגית הבאה והיא כבר משנה את עולם הטיפול. הנפש שלנו כבר מושפעת על ידי מה שקורה ברשות החברתיות או על ידי המכשיר הנייד שרוטט לנו בכיס. לפני שאנחנו מאמצים אינטליגנציה מלאכותית כדי לומר לנו איך אנחנו צריכים להרגיש, כדאי להתקדם בזהירות רבה יותר, לבחון את ההשלכות האתיות, המשמעויות והסיכונים שאנו נחשפים להם, כדי לוודא שהטכנולוגיה באמת מסייעת לנו לשפר את הבריאות הנפשית. ככל ש-AI תתפתח ותהפוך לחלק מהחיים שלנו, כדאי שננהל שיחה כנה ואמיתית עם עצמנו עד כמה אנחנו רוצים שהיא גם תטפל בנו.

בינתיים, אני אמשיך להשתמש בצ'אט GPT כדי לקבל רעיונות איך להתמודד עם מצבים מורכבים, לקבל טיפים על כלים שאני לא מכיר או לא משתמש בהם, ואפילו התחלות של מחשבות על כתבות חדשות בנושאי בריאות הנפש. אבל בסופו של דבר, זה לא באמת טיפול.

מצד שני, אולי אני טועה. אני רק בנאדם.

הכותב הוא ד"ר ירדן לוינסקי, פסיכיאטר, יועץ הפסיכיאטריה הראשי של חטיבת הקהילה, שירותי בריאות כללית 

(המאמר פורסם לראשונה בבלוג דברים שעוברים לי בראש – מחשבות על נפש, טכנולוגית וכל הדברים שביניהם)

נושאים קשורים:  ד"ר ירדן לוינסקי,  דעות,  פסיכיאטריה,  בינה מלאכותית,  AI,  ChatGPT,  טיפול נפשי,  חרדה,  חדשות
תגובות
אנונימי/ת
23.05.2023, 12:50

מאמר נהדר, תודה (נכתב על ידי גולש ולא על ידי בוט)

24.05.2023, 11:46

משהו מאד חיובי ב AI שאפילו אני יכולה להבין.

כל מי שניסה את Eliza יודע שהדימיון בין מערכת ניתוח הטקסט הפשוטה הזו לבין שיח פסיכודינמי הוא מדהים וזו הסיבה שכה רבים.ות התלהבו מהשיחה עם הדבר הזה.

המסקנה מכך היא שהטיפול שאולי הכי קל לחקותו באמצעות רובוט הוא טיפול דינמי. זאת כיוון שרוב התגובות של מטפלים.ות דינמיים.ות הן תגובות המשכה סטראוטיפיות כמו: ״ספר.י לי עוד על כך״ או ״מה זה מזכיר לך״ או ״למה את.ה מתכוונת ב....[חזרה על המשפט האחרון]?״ ומטופלים.ות שהותנו לשמוע בעיקר תגובות כאלו במשך שנים רבות של טיפול חושבים.ות לתומם שהשיח הפשטני להפליא הזה הוא דוגמה לעמדה ניטרלית, אנונימית ופרושה של מטפל.ת דינמי.ת מובהק.ת.

טיפול CBT לעומת זאת הוא הרבה יותר קשה למידול וחיקוי ובניגוד למה שכותב ד״ר לוינסקי יש הרבה ראיות לכך שתועלותו משתמרת לטווח ארוך לאחר סיום הטיפול, הרבה יותר מאשר עם טיפול תרופתי ובודאי הרבה יותר מאשר עם טיפול פסיכודינמי.

07.06.2023, 19:53

לא ראיתי שכתבתי ש Cbt לא יעיל