Utoljára frissült: 14 perce·Ma: 57 cikk feldolgozva
Biztonság

Az OpenAI nyílt forráskódú eszközöket ad ki a fejlesztőknek a tinédzserbiztonság érdekében

Az OpenAI a Common Sense Media és az everyone.ai szakértőivel együttműködve hozta létre a tinédzserbiztonsági eszközöket.

Az OpenAI nyílt forráskódú eszközöket ad ki a fejlesztőknek a tinédzserbiztonság érdekében
Fotó: Vitaly Gariev / Unsplash
Forrás: TechCrunchSzerző: AI Forradalom szerk.

Az OpenAI a Common Sense Media és az everyone.ai szakértőivel együttműködve hozta létre a tinédzserbiztonsági eszközöket. A cég tétolására 2026. március 24-én jelentette be, hogy egy sor promptot, a teen safety policies-t, szabadforrásként teszi közzé, amelyeket a fejlesztők a gpt-oss-safeguard nyílt súlyú biztonsági modellhez vagy más modellekhez is alkalmazhatnak.

A prompek célja, hogy a tinédzsereknek szóló alkalmazásokban csökkentsék a kockázatot, beleértve a grafikus erőszakot, szexuális tartalmat, káros testkép- és viselkedési mintákat, veszélyes tevékenységeket, romantikus vagy erőszakos szerepjátékot, valamint a korhatáros árut és szolgáltatást. A fejlesztők így nem kell az alapoktól újraalkotni a biztonságot, hanem a már létező szabályrendszert használhatják.

Az OpenAI a promptok kidolgozásához AI biztonsági szupervizorokat, a Common Sense Media és az everyone.ai szakembereit bevonta. Robbie Torney, a Common Sense Media AI & Digital Assessments vezetője közölte: „Ezek a promptalapú szabályok egyértelmű biztonsági talajt teremtenek az ökoszisztémában, és mivel nyílt forráskódúak, idővel tovább fejleszthetők.”

A cég blogjában rámutatott, hogy a fejlesztők gyakran küzdenek a biztonsági célok pontos, működőképes szabályokká alakításával, ami szivárgást, egységesíthetetlen végrehajtást vagy túlzott szűrést eredményezhet. A promptok célja, hogy „értelmű, jól meghatározott szabályokat” nyújtsanak, amelyek kritikus alapot képeznek a hatékony biztonsági rendszerekhez.

Az OpenAI azonban nem állítja, hogy a szabályok minden problémát megoldanak. A cég korábbi biztonsági intézkedései közé tartozik a szülői szabályozás és az életkor-előrejelzés. 2025-ben frissítette a Model Spec irányelveit, hogy egyértelműen szabályozza a 18 év alatti felhasználók kezelését. A cég jelenleg több pereskedésben is részesül, amelyek a családok által indított ügyek, melyekben a ChatGPT túlzott használata következtében öngyilkosságok következtek be.

Ez a cikk a TechCrunch alapján készült AI-összefoglalóval.