A Meta új funkcióinak kockázatainak felmérését mostantól a mesterséges intelligencia végzi el.

Belsős dokumentumok alapján szinte teljes egészében a mesterséges intelligenciára fogja bízni a Meta az új funkcióinak kockázatfelmérését. Egy robot fogja eldönteni, hogy egy funkciónak vannak-e olyan szintű adatvédelmi aggályai, jelent-e akkora veszélyt a kiskorúakra vagy növeli-e akkora mértékben a káros tartalmak terjedését, hogy a cég ne vezesse be azt valamelyik platformján - írja az npr híre alapján a Telex.
A gyakorlatban ez azt jelenti, hogy ha a Meta csavar egyet a Facebook algoritmusán, mondjuk azért, hogy több ajánlott tartalmat lássunk, új biztonsági intézkedéseket vezet be, vagy változtat azon, hogy hogyan és mit lehet megosztani, azt mostantól egy mesterséges intelligencián alapuló rendszer fogja kiértékelni. Ez a rendszer aztán vagy kiszűri, hogy hogyan lehet rossz célokra használni egy jó szándékkal bevezetett funkciót, és ennek milyen, előre nem látott következményei lehetnek, vagy nem.
A jelenlegi és korábbi munkatársak véleménye alapján azonban ennek a folyamatnak meglesz a maga ára: a változások káros hatásai csak akkor fognak napvilágra kerülni, amikor már végrehajtásra kerültek. A Meta képviselői hangsúlyozzák, hogy a bonyolultabb problémák esetén továbbra is számítanak emberi szakértőkre, míg az automatizált megoldások kizárólag alacsony kockázatú feladatokra vonatkoznak. Az érzékeny kérdéseknél, mint például a mesterséges intelligencia biztonsága, a fiatalok védelme, valamint az erőszakos és hamis információk terjesztése, továbbra is az MI fog dönteni.