Uniós nyomásra leáll európai a mesterséges intelligencia betanításával a Meta


Az intelligens modellek fejlesztése területén komoly előny a Facebookon és Instagramon összegyűlt óriási mennyiségű felhasználói adat. Az EU adatvédelmi törvénye, a GDPR alapján ezt nem lehet csak úgy szó nélkül felhasználni.

A Facebookot és Instagramot üzemeltető Meta pénteken bejelentette, hogy felfüggeszti intelligens asszisztense európai változatának betanítását Írország adatvédelmi hatósága, a DPC tiltakozása miatt.

Az ír adatvédők más tagországok hatóságait is képviselik az ügyben és azután léptek kapcsolatba a Metával, hogy egy None of Your Business (Semmi Közöd Hozzá) nevű civil szervezet 11 pontból álló panaszlistát juttatott el egy sor európai ország illetékes hivatalához.

A szervezet alapítója Max Schrems a Reuters hírügynökségnek nyilatkozva rámutatott, hogy szerintük a Meta szabályai alapján 

bárki bármilyen adatát

megoszthatják a világgal, ha azt mesterséges intelligencia betanítására használják. Schrems szerint ez ellentmond a hatályos európai adatvédelmi törvénynek, a GDPR-nek.

A Meta közölte, hogy csalódottak a DPC kérése miatt, továbbá hangsúlyozták, hogy együttműködnek a hivatallal és igyekeznek betartani az európai törvényeket. A Meta termékeiben nemrég kezdett kampányba új adatvédelmi szabályaival kapcsolatban. 

Az új szabályzat június 26-án lép életbe, és a GDPR egyik paragrafusa alapján „jogos érdeknek” tekinti az adatok felhasználását. Nem ez az első eset, hogy erre a szakaszra hivatkoznak, az Európai Adatvédelmi Testület legutóbb 2023 decemberében szólította fel őket, hogy hagyjanak fel a felhasználói adatok jogos érdekre hivatkozva történő, marketingcélú illegális felhasználásával.

A DPC közleményben jelezte, hogy örömmel veszik a fejlesztés felfüggesztését.

A döntést intenzív eszmecsere előzte meg. A DPC a kérdéssel kapcsolatban az EU adatvédelmi társszerveivel együttműködésben továbbra is tartja a kapcsolatot a Metával

– fogalmaztak.

A konfliktus elkerülését valószínűleg nem segítette, hogy a Meta nem forszírozta túlzottan a felhasználók tájékoztatását. Az értesítés kijelentkezés (opt-out) típusú volt, vagyis ha valaki szem elől tévesztette, esetleg nem jelentkezett be idejében, azt beleegyezésnek vették. Aki pedig belekattintott, olyan tájékoztatást kapott, amiből nem feltétlenül volt világos, hogy a felhasználó dönthet az adatok felhasználásáról. A hivatalos kijelentkező formot pedig mélyen elrejtették az opciók között.

A probléma alapja, hogy a mesterséges intelligencia betanításához rengeteg, emberek által generált, jól strukturált tartalomra van szükség. A piaci szereplők egyrészt minden hozzáférhető információt felhasználnak, abban bízva, hogy a történtekről lekéső törvényi szabályozás miatt megússzák az esetleges retorziókat. Eközben egyrészt komoly szerzői jogi perek indultak ellenük (ilyet indított a New York Times), máskor megegyeztek, mint például a Reddit esetében, amelynek fórumait 200 millió dollárért használhatja az OpenAI. A Meta ugyan kissé lemaradt a technikai versenyben, hatalmas előnyük, hogy házon belül óriási mennyiségű felhasználói adattal rendelkeznek.

Forrás: https://index.hu/techtud/2024/06/17/meta-mesterseges-intelligencia-facebook-instagram-gdpr-adatvedelem-felhasznlas-betanitas-felfuggesztes/


DPO

Adatvédelmi tisztviselő szolgáltatás – DPO
Bízza meg a GDPR Specialistákat megbízási jogviszony keretében az adatvédelmi tisztviselő feladatok ellátásával, hogy a GDPR-nak való megfelelés folyamatosan biztosított legyen.

Adatvédelmi audit

Bízza meg a GDPR Specialistákat, hogy az Önök cégénél a GDPR megfelelést egy audit keretében vizsgálja meg

Adatvédelmi tanácsadás

Bízza meg a GDPR Specialistákat, hogy a téma legfelkészültebb szakembereitől kapjon megoldást a kérdéseire!

GDPR rendelet megfelelés

Bízza meg a GDPR Specialistákat, hogy a GDPR rendeletnek való megfeleléshez szükséges feladatokat elvégezzük és a dokumentumokat elkészítsük az Ön cégénél!

Ez a weboldal cookie-kat (sütiket) használ azért, hogy weboldalunk használata során a lehető legjobb élményt tudjuk biztosítani.