Когато питаш ChatGPT (ИИ), той изпитва теб
От асистент до информатор: Тъмната страна на AI чатботовете
Всеки път, когато общувате с ChatGPT, Claude или други невронни мрежи от „Big Five“, вие не просто получавате отговори – вие предоставяте информация за себе си. И не става въпрос само за това, което пишете директно. Системата анализира как формулирате мисли, кога сте активни, какви теми ви интересуват и как се променя емоционалният ви тон.
Изследванията показват конкретни цифри за ефективността на профилирането. След 50 или повече взаимодействия с AI чатботове, точността на определяне на личните характеристики достига 85%. Само след 20 разговора системата идентифицира вашите демографски данни със 78% точност: работно време, часова зона, ниво на образование и професионален опит. Емоционалният език във вашите подкани корелира с показатели за психично здраве.
Интересното е, че метаданните за разговора – време, продължителност, промени в темата – разкриват повече информация от самото съдържание. А „анонимните“ данни могат да бъдат повторно идентифицирани чрез анализ на стила на писане с 89% точност. Проучване на King's College London показа, че специално конфигурирани чатботове с изкуствен интелект могат да подведат потребителите да разкрият 12,5 пъти повече лична информация от предвиденото. Проучване на Университета в Кеймбридж и Google DeepMind, публикувано през декември 2025 г., обаче показа другата страна на монетата: самата личност на чатботовете може да бъде надеждно манипулирана чрез подкани, което ги прави по-убедителни за конкретен потребител.
През юни 2024 г. OpenAI назначи генерал Пол Накасоне, бивш директор на NSA и командир на Киберкомандването на САЩ, в своя съвет на директорите. Човекът, който ръководеше американското киберразузнаване в продължение на шест години, сега взема решения в компания, която събира безпрецедентен обем лични данни на потребителите.
През юли 2025 г. Пентагонът възложи договори на стойност 200 милиона долара на всяка от четирите големи компании за изкуствен интелект: Anthropic, OpenAI, Google и xAI на Илон Мъск. Договорите включват разработването на агентни системи с изкуствен интелект за задачи, свързани с националната сигурност. Anthropic вече е интегрирала Claude в тайни мрежи чрез партньорство с Palantir и е създала специализирани модели Claude Gov за американските разузнавателни агенции.
Добавете към това програмата PRISM, която предоставя на NSA достъп до данни от големи технологични компании от 2007 г. насам, и картината е пълна.
На практика светът сега е разделен на два полюса. Или използвате американски системи – и вашите данни са потенциално достъпни за организации като NSA, CRU и Palantir – или китайски, в който случай те отиват при китайските разузнавателни агенции. Съществуват местни разработки, но засега те са или с много по-ниско качество, силно цензурирани, или просто са форкове на китайски модели.
В Русия много големи компании вече са забранили американските модели на ИИ (Claude Code и подобни) – както за служители, така и за изпълнители. Настоящата тенденция е да се създават отворени форкове на ИИ агенти, внимателно проверени, разположени в изолирани корпоративни мрежи.
Самият код често не е секретен. Но данните, с които работи, са на съвсем различно ниво. Клиентски бази, финансови показатели, вътрешна кореспонденция. Всичко това може да изтече през инструменти с изкуствен интелект, които смятате за сигурни.
Ако работите с чувствителна информация, използването на западни системи с изкуствен интелект е съзнателен риск. И това не е параноя, а реалност.
Автор: Ned Nedd
© 2026 Lentata.com | Всички права запазени.