אפל משתפת כיצד מערכת סריקת הצילומים שלה מוגנת מפני התעללות

Share on facebook
Share on twitter
Share on linkedin
Share on telegram
Share on whatsapp
Share on email
פרסומת
MAGNEZIX מגנזיקס


אפל הודתה כי הדרך בה הכריזה על כוונתה לסרוק באופן אוטומטי ספריות תמונות לאייפון כדי להגן על ילדים מפני תכנים פוגעניים, עלולה לגרום ל"בלבול "ומסבירה כיצד היא נועדה למנוע התעללות מצד ממשלות סמכותיות.

אחרי קצת מחומם מָשׁוֹב מהקהילה בכלל, נראה כי אפל הודתה כי הציגה "בלבול" בהודעתה הראשונית ופרסמה נייר מעודכן על התוכנית שלה ל לסרוק תמונות עבור חומרים של התעללות מינית בילדים (CSAM) במכשירי iPhone, iPads והתקנים אחרים של אפל.

על פי המסמך המעודכן, אפל מקווה להעמיד את כל חששות הפרטיות והאבטחה בנוגע לפריסה על ידי הצהרה שהיא לא תסתמך על מסד נתונים אחד המזוהה עם ממשלה כדי לזהות CSAM. במקום זאת, הוא יתאים רק תמונות משתי קבוצות לפחות בעלות השתייכות לאומית שונה.

תכנית זו נועדה למנוע מממשלה אחת את היכולת להכניס בחשאי תוכן שאינו קשור למטרות צנזורה מכיוון שהשיחות לא יתאימו לאף אחד אחר במאגרי המידע המשולבים. מנהל אפל, קרייג פדריגי, פרסם הבוקר חלק מהמידע המרכזי של תוכנית זו בראיון ל- הוול סטריט ג'ורנל

אמנם הרעיון, בתיאוריה, הוא טוב שאמור להיות מסוגל להגן על ילדים מפני טורפים, אך למומחי פרטיות וקריפטוגרפיה יש מְשׁוּתָף כמה ביקורת חריפה על התוכנית של אפל.

הדגמת חפיפת מסד הנתונים מעמוד 8 בקובץ ה- PDF המעודכן.

החברה הצהירה קודם לכן כי המערכת תשתמש במספר מאגרי בטיחות ילדים, אך עד הבוקר לא הוסבר כיצד מערכות אלה יעבדו וחפיפה. על פי הערותיו של פדריג'י, הם עדיין מסיימים הסכמים עם קבוצות הגנת ילדים אחרות כאשר רק המרכז הלאומי לילדים חסרים ומנוצלים בארה"ב (NCMEC) נקרא רשמית וחלק מהתוכנית.

המסמך מסביר עוד שברגע שמשהו מסומן על ידי מסד הנתונים, "ההגנה" השנייה היא סקירה אנושית שבה כל התאמות חיוביות של תוכניות ה- hash של התוכניות צריכות לאשר ויזואלית על ידי אפל כמכילה חומר CSAM לפני שאפל תשבית את החשבון והקובץ דו"ח עם הארגון לבטיחות ילדים.

העיתון כולל פרטים נוספים על האופן שבו אפל תסמן חשבון iCloud רק אם זיהתה 30 תמונות או יותר כ- CSAM (סף שנקבע לספק "מרווח בטיחות דרסטי" (עמוד 10) כדי למנוע סיכוי לתגובות שווא. המערכת נכנסת למקומה ומתחילה להתרגל בעולם האמיתי, פדרגי אמר כי סף זה עשוי להשתנות ולהתאים. אפל תספק גם רשימה מלאה של חשיפות שבהן משתמשים מבקרי החשבון כדי לבדוק כנגד מאגרי בטיחות ילדים כצעד נוסף לקראת מלא שקיפות, כדי להבטיח שהיא לא תתאים "בחשאי" – קרא: צנזורה – תמונות נוספות.

אפל ציינה בנוסף כי אין בכוונתה לשנות את תוכניותיה להפקת מערכת סריקת התמונות בסתיו הקרוב.

למעוניינים, העיתון המלא של אפל זמין לקריאה כאן.


קרדיט לתמונות: תמונה בכותרת מורשית באמצעות פיקדונות.





קישור לכתבת המקור – 2021-08-14 02:12:52

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on telegram
Telegram
Share on whatsapp
WhatsApp
Share on email
Email
פרסומת
X-ray_Promo1

עוד מתחומי האתר

אנחנו קופצים ליצירת סתיו השבוע ב-Creative Haven על ידי הכנת כמה דלעות בלוק מקסימות! אנחנו…