Apple on nyt poistanut verkkosivuiltaan kaikki maininnat niin sanotusta lapsipornon skannaustoiminnosta, josta julkaistut suunnitelmat aiheuttivat kohua aiemmin vuoden 2021 aikana.
Apple julkaisi aiemmin tällä viikolla iOS 15.2 -käyttöjärjestelmäpäivityksen, joka sisältää muilta osin uusia toimintoja lasten suojelemiseksi.
Maininnat ”lapsipornoskannauksesta”, eli teknisemmin Apple-laitteesta löytyvien ja iCloudiin tallennettavien kuvien vertaamisesta tiedossa olevien, tietokantoihin kirjattujen lasten seksuaalista hyväksikäyttöä edustavien kuvien tunnisteisiin, ovat kadonneet nyt esimerkiksi Applen lasten suojelemiseksi kehitettyjä toimintoja esittelevältä sivulta.
MAINOS (ARTIKKELI JATKUU ALLA)
Tällä viikolla julkaistussa iOS 15.2:ssa Apple toi Viestit-sovellukseen lasten suojelemiseksi tarkoitetun toiminnon, joka skannaa vastaanotetut ja lähetettävät viestit alastomuuden osalta. Toiminto on vanhempien käyttöönotettavissa. Tunnistettu alastomuutta sisältävä materiaali esitetään sumennettuna, mutta lapsella on mahdollisuus katsoa kuva halutessaan tai ottaa yhteyttä vanhempaansa. Lisäksi Siri-, Spotlight- ja Safari-haut ovat englannin kielellä uudistuneet ohjeilla hakea apua haettaessa lasten seksuaaliseen hyväksikäyttöön liittyviä asioita.
Suurimman kohun Applen alun perin elokuun alkupuolella julkistetuista lasten seksuaalista hyväksikäyttöä vähentämään suunnitelluista ominaisuuksista aiheutti kuitenkin iCloudiin tallennettavien kuvien niin sanottu ”lapsipornoskannaus”. Sen piti olla alun perin osa jo iOS 15 -päivitystä tänä syksynä Yhdysvalloissa, mutta Apple lykkäsi suunnitelmia muun muassa yksityisyysnäkökulmasta syntyneen kohun jälkeen.
Tarkempaa uutta aikataulua julkaisulle Apple ei ole antanut iCloudiin tallennettavien kuvien skannauksen osalta. Vaikka Apple on nyt poistanut viittaukset siihen verkkosivuiltaan, ei Applen edustajan The Vergelle antaman kommentin mukaan yhtiön suunnitelmat eivät ole nähtävästi kuitenkaan muuttuneet. Perustuen palautteeseen asiakkailta, kannatusryhmiltä, tutkijoilta ja muilta, olemme päättäneet ottaa lisäaikaa tulevien kuukausien aikana kerätäksemme näkemyksiä ja tehdäksemme parannuksia ennen näiden kriittisen tärkeiden lapsiturvallisuuden toimintojen julkaisua”, Apple kommentoi jo syyskuussa.
MAINOS (ARTIKKELI JATKUU ALLA)
Applen iCloud-pilvipalvelun tallennettavien kuvien tarkastaminen oli tarkoitus suorittaa jo käyttäjän laitteessa, minkä myös osaltaan nähtiin loukkaavan käyttäjien yksityisyyttä – ja samalla heräsivät pelot, mitä muuta lasten seksuaaliseen hyväksikäyttöön liittyvän materiaalin jälkeen Apple-laitteista voitaisin seuraavaksi alkaa skannata esimerkiksi tiettyjen valtioiden vaatimuksista. Kuvien tarkastamisen oli tarkoitus toimia niin, että jos lasten seksuaalista hyväksikäyttöä edustavaa materiaalia löytyy tietty määrä, ilmoittaa Apple asiasta viranomaisille.
Apple pyrki sittemmin lievittämään esiin nousseita huolia taustoittamalla toimintojen teknisiä ratkaisuja ja sekä tekemällä niihin myös muutamia parannuksia esimerkiksi väärinkäytön estämiseksi. Tarkemmin iCloudin CSAM-tarkastuksen suunniteltua toimintaa on käyty läpi aiemmassa jutussamme.
Mainos: Noin 1 600 000 tuotteen hintavertailu ja hintaseuranta - katso Hinta.fistä mistä saat halvimmalla
Salasana hukassa?
Etkö ole vielä rekisteröitynyt? Rekisteröidy tästä »