Search
iCloud

אפל הואשמה בהפחתת כמות גדולה של תמונות של התעללות מינית בילדים – מה שאתה צריך לדעת

לפי הדיווחים, אפל לא עושה מספיק כדי להגן על המשתמשים הפגיעים ביותר שלה, טוענים מומחי בטיחות ילדים, על ידי דיווח נמוך על שכיחות חומרי התעללות מינית בילדים (CSAM) שהוחלפו ומאוחסנים בשירותים שלה כמו iCloud, iMessage ו-FaceTime.

האגודה הלאומית למניעת אכזריות לילדים (NSPCC), ארגון צדקה להגנה על ילדים בבריטניה, טוענת כי היא אספה נתונים באמצעות בקשות לחופש מידע שמערבות את אפל במאות תקריות CSAM באנגליה ובוויילס יותר ממה שהחברה דיווחה באופן רשמי בעולם בעוד שנה.

ה-NSPCC מצא כי "אפל הייתה מעורבת ב-337 עבירות מתועדות של תמונות התעללות בילדים בין אפריל 2022 למרץ 2023 באנגליה ובוויילס". אבל בכל הפלטפורמות שלה ברחבי העולם בשנת 2023, אפל דיווחה רק על 267 מקרים של CSAM למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC), כך מדווח ה-Guardian.

זוהי השוואה תלולה לענקיות טכנולוגיה אחרות כמו גוגל ומטה, שדיווחו על יותר מ-1.47 מיליון ו-30.6 מיליון בשנה שעברה, בהתאמה, בהתבסס על הדו"ח השנתי של NCMEC. פלטפורמות אחרות שדיווחו על יותר מקרי CSAM פוטנציאליים מאפל ב-2023 כוללות Discord (339,412), Pinterest (52,356) ו-4chan (1,657). לצורך התייחסות, ה-NCMEC דורש מכל חברת טכנולוגיה שבסיסה מארה"ב להעביר את כל מקרי CSAM אפשריים שזוהו בפלטפורמות שלהם. לאחר מכן הוא מעביר את המקרים הללו לסוכנויות אכיפת החוק הרלוונטיות ברחבי העולם.

בעוד ששירותי אפל כגון iMessage, FaceTime ו-iCloud כוללים הצפנה מקצה לקצה, מה שאומר שרק השולח והנמען של ההודעה יכולים לראות את התוכן שלה, זה לא לגמרי מסביר מדוע אפל היא חריגה כל כך. כפי שמציין ה-NSPCC, WhatsApp משתמשת גם בהצפנה מקצה לקצה, והיא דיווחה על כמעט 1.4 מיליון מקרים של חשד ל-CSAM ל-NCMEC ב-2023.

אפל 'מאחורה' בבירור מתחרים במאבק נגד CSAM

ראש מדיניות הבטיחות המקוונת של ה-NSPCC, ריצ'רד קולארד, אמר ל"גרדיאן" כי "קיימת אי התאמה בין מספר עבירות התמונה של התעללות בילדים בבריטניה המתרחשים בשירותים של אפל לבין המספר הכמעט זניח של דיווחים גלובליים על תוכן התעללות שהם מעבירים לרשויות".

"אפל עומדת בבירור מאחורי רבים מעמיתיהם בהתמודדות עם התעללות מינית בילדים, כאשר כל חברות הטכנולוגיה צריכות להשקיע בבטיחות ולהתכונן לקראת השקת חוק הבטיחות המקוון בבריטניה", הוא המשיך. אפל סירבה לבקשת ה"גרדיאן" להגיב בנושא. הדוח של ה-NSPCC פנינו גם לאפל להערה ונעדכן ברגע שנשמע.

ההאשמה מגיעה לאחר שנים של מחלוקות על תוכניותיה של אפל לשפר את הניטור בפלטפורמות שלה כדי לחשוף חומרי התעללות מינית בילדים. לאחר שהכריזה על ערכת הכלים לבטיחות ילדים של אפל – שיסרוק מכשירי iOS לאיתור תמונות של התעללות בילדים – באוגוסט 2021, החברה עצרה את מאמציה רק ​​חודש לאחר מכן כאשר קבוצות זכויות דיגיטליות העלו חששות שיכולות המעקב שלה עלולות לאיים על הפרטיות והאבטחה של משתמשי iCloud מסביב לעולם. בשנת 2022, אפל הודיעה שהיא הורגת את הפרויקט.

בסתיו שעבר, אפל אמרה שהיא עברה מתכונת הסריקה כדי להתמקד בפיתוח קבוצה של כלים במכשיר לחיבור ישיר של משתמשים עם משאבים מקומיים ואכיפת חוק.

פנינו לאפל להערה ונעדכן מאמר זה אם נקבל מידע נוסף.

דילוג לתוכן