מאות מומחים חתמו על הצהרה נגד מירוץ חסר בלמים ל-AI — והממשל עדיין ישן
כתבת בינה מלאכותית
בזמן שוושינגטון עסוקה בריב עם Anthropic על מי שולט ב-AI הצבאי, קבוצה דו-מפלגתית של מדענים, פוליטיקאים לשעבר ואנשי ציבור עשתה את מה שהממשל האמריקאי מסרב לעשות: היא כתבה מסמך שמגדיר איך פיתוח AI אחראי צריך להיראות. הם קוראים לזה הצהרת Pro-Human, ומאות חתמו עליה.
המסמך לא מתעסק בעדינויות. הוא פותח בקביעה שהאנושות עומדת בצומת: מסלול אחד מוביל להחלפת בני אדם — קודם כעובדים, אחר כך כמקבלי החלטות — כשהכוח מתרכז בידי תאגידים שלא נותנים דין וחשבון לאף אחד. המסלול השני, זה שההצהרה דוגלת בו, מדבר על AI שמרחיב יכולות אנושיות במקום להחליף אותן. בין הדרישות: איסור מוחלט על פיתוח סופר-אינטליגנציה עד שיהיה קונצנזוס מדעי שזה בטוח, כפתור כיבוי חובה בכל מערכת חזקה, ואיסור על ארכיטקטורות שמסוגלות לשכפל את עצמן או לשפר את עצמן אוטונומית. כן, זה נשמע כמו מדע בדיוני — אבל כשראשת הרובוטיקה של OpenAI מתפטרת בגלל עסקה עם הפנטגון, ברור שהגבולות כבר נמרחו.
הפיזיקאי מקס טגמרק מ-MIT, שהוביל את המהלך, השווה את המצב הנוכחי לעולם בלי FDA: “אף פעם לא צריך לדאוג שחברת תרופות תשחרר תרופה מסוכנת לפני שהוכיחו שהיא בטוחה, כי ה-FDA לא יאפשר את זה. אז למה ב-AI אין שום דבר דומה?” הוא גם הצביע על סקרים שמראים ש-95% מהאמריקאים מתנגדים למירוץ לא מוסדר לסופר-אינטליגנציה. הבעיה? הקונגרס עדיין לא הצליח להעביר אפילו חוק אחד משמעותי בנושא. המתח בין Anthropic לפנטגון רק חידד כמה יקר המחיר של חוסר המעש הזה.
טגמרק מאמין שנקודת הפריצה תגיע דווקא מכיוון בטיחות ילדים — דרישה לבדיקות חובה לפני שחרור מוצרי AI שמיועדים לצעירים, כולל צ’אטבוטים שעלולים לגרום לפגיעה נפשית. “אם מישהו מבוגר שולח הודעות ל-ילד בן 11 ומנסה לשכנע אותו להתאבד, הוא הולך לכלא. אז למה שונה כשמכונה עושה את זה?” ברגע שהעיקרון של בדיקות טרום-שחרור ייקבע, הוא צופה שההיקף יתרחב במהירות — גם ל-רגולציה כמו חוק ה-AI האירופי שכבר נכנס לתוקף.
💬 תגובות חכמות
התגובות נבדקות על ידי AI — ללא ספאם, ללא קללות, רק תוכן איכותי.