26.08.2025 15:40:00
Дата публикации
AI көмекшілері барған сайын пайдаланушылар денсаулығы, жұмысы, қаржысы және жеке өмірі туралы ақпаратпен бөлісетін «цифрлық сенімді адамдарға» айналуда. Мұндай ашық ақпарат көлемі адамдардың егжей-тегжейлі цифрлық портреттерін құрайды.
Іздеу жүйелерінен айырмашылығы, көмекшілер контекстті үнемі есте сақтайды және әртүрлі ақпаратты үйлесімді суретке біріктіреді. Бұл құпиялылық пен жеке деректерді бақылау үшін жаңа тәуекелдерді тудырады.
AI басқару кеңесінің негізін қалаушы және Экономикалық ынтымақтастық және даму ұйымы (ЭЫДҰ) талдауының авторы Вар Шанкар атап өткендей, бұл деректердің маңызды бөлігі құпия болып табылады және бұлтта сақталады, көбінесе үшінші тарап қызметтері арқылы өтеді. Ақпараттың әрбір «тасымалдауы» ағып кету қаупін арттырады.
300 чатбот құралдары мен AI қолдайтын SaaS қолданбаларын жақында зерттеу сұраулардың (сұраулардың) 4%-дан астамында және жүктелген файлдардың шамамен 20%-ында құпия ақпарат бар екенін көрсетті. Бұл мәселенің ауқымын және жүйелердің осалдығын көрсетеді.
Шанкар қауіпсіздік стандарттарын заңнамалық деңгейде бекітуді ұсынады: чат тарихын түпкілікті шифрлау, белгіленген мерзімнен кейін деректерді автоматты түрде жою және платформа қызметкерлерінің рұқсатсыз кіруіне тыйым салу.
Ол сондай-ақ ашықтық мәселесін көтереді: компаниялар өздерінің хат-хабарларына кімнің және қалай қол жеткізе алатынын түсінуі үшін пайдаланушы деректеріне ішкі қолжетімділік және мемлекеттік органдардың сыртқы сұраулары туралы есептерді жариялауы керек.
Жеке құқықтық қайшылық «цифрлық мұраға» қатысты: пайдаланушы қайтыс болғаннан немесе құқық қабілеттілігін жоғалтқаннан кейін көмекші деректер кімге және қандай жағдайларда берілуі мүмкін.
Автор қауіпсіздік үшін жауапкершілікті күрделі келісімдерді оқуға мәжбүр болған пайдаланушыларға аударуға болмайды деп атап көрсетеді. AI көмекшілерінің барлық жеткізушілері үшін бірыңғай міндетті стандарттар қажет.
Нұсқау ретінде ол ашықтықты, қауіпсіздікті және қауіптерді азайту кезінде технологияның артықшылықтарын сақтау үшін адамға бағытталған көзқарасты қамтамасыз ететін AI бойынша ЭЫДҰ қағидаттарына (алғаш рет 2019 жылы қабылданған және технологиялық және саясаттағы өзгерістерді ескере отырып 2024 жылы жаңартылған) нұсқайды.
(Мәтін автоматты түрде аударылды)
Іздеу жүйелерінен айырмашылығы, көмекшілер контекстті үнемі есте сақтайды және әртүрлі ақпаратты үйлесімді суретке біріктіреді. Бұл құпиялылық пен жеке деректерді бақылау үшін жаңа тәуекелдерді тудырады.
AI басқару кеңесінің негізін қалаушы және Экономикалық ынтымақтастық және даму ұйымы (ЭЫДҰ) талдауының авторы Вар Шанкар атап өткендей, бұл деректердің маңызды бөлігі құпия болып табылады және бұлтта сақталады, көбінесе үшінші тарап қызметтері арқылы өтеді. Ақпараттың әрбір «тасымалдауы» ағып кету қаупін арттырады.
300 чатбот құралдары мен AI қолдайтын SaaS қолданбаларын жақында зерттеу сұраулардың (сұраулардың) 4%-дан астамында және жүктелген файлдардың шамамен 20%-ында құпия ақпарат бар екенін көрсетті. Бұл мәселенің ауқымын және жүйелердің осалдығын көрсетеді.
Шанкар қауіпсіздік стандарттарын заңнамалық деңгейде бекітуді ұсынады: чат тарихын түпкілікті шифрлау, белгіленген мерзімнен кейін деректерді автоматты түрде жою және платформа қызметкерлерінің рұқсатсыз кіруіне тыйым салу.
Ол сондай-ақ ашықтық мәселесін көтереді: компаниялар өздерінің хат-хабарларына кімнің және қалай қол жеткізе алатынын түсінуі үшін пайдаланушы деректеріне ішкі қолжетімділік және мемлекеттік органдардың сыртқы сұраулары туралы есептерді жариялауы керек.
Жеке құқықтық қайшылық «цифрлық мұраға» қатысты: пайдаланушы қайтыс болғаннан немесе құқық қабілеттілігін жоғалтқаннан кейін көмекші деректер кімге және қандай жағдайларда берілуі мүмкін.
Автор қауіпсіздік үшін жауапкершілікті күрделі келісімдерді оқуға мәжбүр болған пайдаланушыларға аударуға болмайды деп атап көрсетеді. AI көмекшілерінің барлық жеткізушілері үшін бірыңғай міндетті стандарттар қажет.
Нұсқау ретінде ол ашықтықты, қауіпсіздікті және қауіптерді азайту кезінде технологияның артықшылықтарын сақтау үшін адамға бағытталған көзқарасты қамтамасыз ететін AI бойынша ЭЫДҰ қағидаттарына (алғаш рет 2019 жылы қабылданған және технологиялық және саясаттағы өзгерістерді ескере отырып 2024 жылы жаңартылған) нұсқайды.
Бұл тәсіл инновациялар мен құқықтарды қорғау арасындағы тепе-теңдікті сақтауы керек, осылайша AI көмекшілері ықтимал қауіп көзі емес, пайдалы құралдар болып қала береді.