Согласно исследованию Теплицы, 7 из 10 гражданских проектов пользуются генеративными ИИ при подготовке грантовых заявок. Они применяют их при работе на самых разных этапах — от брейнсторминга идеи до содержания. Хотя ИИ бывает полезен для решения некоторых задач, его результаты почти никогда не являются финальной работой, которую можно использовать в заявке.
Теплица рекомендует пользоваться большими языковыми моделями западных производителей (например, ChatGPT от Open AI, Google AI Studio). Если вы находитесь в России и какие-то из инструментов недоступны, используйте VPN для доступа к ним. Вы можете обратиться за бесплатным VPN написав нам в бот: @teplica_feedback_bot
Если ваша модель угроз подразумевает возможность давления и преследования со стороны российских властей, мы не рекомендуем использовать для работы генеративные модели российских производителей (например, Yandex GPT), а также пользоваться ботами ChatGPT в Телеграме. В первом случае зарегистрированные в России компании будут вынуждены по запросу властей раскрыть переписки пользователя. Использование ботов-посредников не дает пользователю надежных гарантий сохранения конфиденциальности запросов.
В этом материале мы хотим остановиться на рисках, которые важно учитывать в процессе фандрайзинга при использовании больших языковых моделей — приложений и встроенных инструментов типа Copilot. Наши советы помогут минимизировать эти риски. Материал основан на данных репозитория рисков ИИ от Массачусетского технологического института.
1. Риск утраты конфиденциальности: модель может ненамеренно выдать в ответе другому пользователю персональные данные, доступные в ее системе.
- Скрапинг данных. Инструменты генеративного ИИ умеют скрапить (автоматически получать данные с веб-страниц) персональную информацию из интернета, что может привести к раскрытию конфиденциальных данных или нарушению конфиденциальности. Так, модель может выдать в одном из ответов полное имя или адрес электронной почты реального человека.
- Данные пользователей генеративного ИИ. В целях улучшения модели инструменты ИИ часто обучаются на реальных диалогах с людьми. При этом они собирают и хранят информацию о пользователях. Возникает риск нарушения конфиденциальности и злоупотребления персональными данными.
- Выходные данные генеративного ИИ. Инструменты ИИ могут случайно включать в генерируемый контент персональную информацию о людях или организациях, загруженную в модель самими пользователями.
Что можно сделать?
- Не давайте ИИ персональную информацию. Если загружаете текст, замените сенситивные данные: имена, даты рождения, контакты. После работы с LLM вы сможете поменять данные на настоящие. В частности, если работаете через Copilot, потратьте пару минут и сделайте копию документа для работы ИИ, в которой не будет актуальных данных.
Примеры удачного и неудачного текста
Неудачный текст:
«В команду проекта входят: а) руководитель Центра «Правозащита», редактор сайта «Права человека» Тимур Иванов; б) журналистка Анфиса Петрова (ранее 11 лет работала в изданиях «Голод», «Сайга.Инфо» и пр.); в) адвокат Евгений Крюков (ранее «Синицкий и партнеры», г.Красноярск, ныне г. Берлин), автор популярного блога «Права человека в современной России».
Удачный текст:
«В команду проекта входят а) руководитель известной правозащитной организации и редактор сайта правовой помощи гражданам; б) журналистка с многолетним опытом работы в оппозиционных СМИ; в) адвокат, выехавший из страны, автор популярного блога о правах человека».
- Отключите функцию обучения на ваших данных. Большие языковые модели улучшаются за счет обучения на пользовательских данных. Это делается с разрешения самого пользователя. Его можно отозвать в настройках. Если ваша задача — сохранить в секрете планы вашего проекта, советуем отключить эту функцию.
Как отключить обучение на ваших данных в ChatGPT и Perplexity
В ChatGPT: Профиль — Настройки — раздел «Элементы управления данными» — пункт «Улучшить модель для всех» — «Выключить».
В Perplexity: Профиль — Настройки — пункт «AI Data Retention» — «Выключить».
В других инструментах это также должно быть возможно. Если нет — стоит воздержаться от использования такого инструмента.
- При переводе текста с помощью специализированных инструментов изучите их политику сбора и обработки данных. При необходимости используйте платные тарифы.
Подробнее про Deepl и Grammarly
И DeepL, и Grammarly заявляют, что делают все для безопасности данных пользователей. Deepl гарантирует, что ваша информация не будет прочитана третьей стороной только на платном тарифе. Это обеспечивается с помощью шифрования TLS и немедленного удаления текста.
- Полезную информацию можно найти в политике конфиденциальности, приватности и/или пользовательском соглашении. Обращайте внимание на пункты, непосредственно связанные со сбором и обработкой персональных данных: под какой лицензией распространяется сгенерированный контент, есть у пользователя на него права, а также политику раскрытия информации третьим сторонам. Старайтесь использовать инструменты ИИ, ставящие в приоритет безопасность данных и конфиденциальность пользователей. Вы даже можете попробовать «скормить» многостраничный текст ИИ и задать ему вопросы, например, «использует ли компания Х информацию пользователей для обучения своей нейросети».
2. Риск манипуляции данными: инструменты генеративного ИИ могут создавать ответы с некорректной информацией, что способно повлиять на достоверность текста грантовой заявки.
Модели иногда «галлюцинируют»: выдумывают факты, проводят некорректные причинно-следственные связи, неправильно интерпретируют информацию. Когда одну из моделей ИИ попросили выдать рецепт пиццы, она предложила «добавить в соус 1/8 стакана нетоксичного клея, чтобы придать ему больше липкости». Ответ основывался на давнем шуточном комментарии в одном из обсуждений на форуме. ИИ не понял, что это несерьезная рекомендация и добавил ее в собственный ответ.
В случае с грантовыми заявками подобная нелепость может стоить организации финансовой помощи. Заявки проверяют люди, и логические нестыковки будут для них очевидны. Получится эффект «заказанной курсовой», когда «защищающийся» сам не знает, что написано в тексте.
Что можно сделать?
- Перед тем, как использовать в заявке текст, сгенерированный ИИ, внимательно его перечитайте.
- Проверяйте факты, которые использует модель. Также проверяйте, какие были использованы источники.
Поисковики на основе ИИ — например, Perplexity и Microsoft Copilot — автоматически выдают источники, которые они использовали при создании текста. Если речь о других инструментах, можно прямо в промпте просить включить ссылки на источники. Пример такого промпта: «Найди информацию о количестве политзаключенных в России и приведи ссылки на источники».
- При использовании ИИ используйте приемы, сокращающие «галлюцинации». Рекомендуем изучить группу приемов под названием «заземление» (grounding). Они помогают связать абстрактные знания модели с примерами из реального мира.
Пример техники «заземления»
Самый простой из этих приемов — давать в промпте побольше контекста. Например, описать, какой документ вы пишете, для какой аудитории, какой у нее уровень осведомленности о проблеме и т.д.
3. Риск несоответствия ИИ человеческим ценностям.
Инструменты ИИ могут генерировать контент, не соответствующий человеческим ценностям или отражающий систему ценностей, не соответствующую вашей. Например, ИИ может генерировать текст с позиции жесткого запрета на ношение оружия, в то время как вы отстаиваете более либеральный подход.
Что можно сделать?
- Внимательно перечитывайте сгенерированный контент перед использованием от своего имени. Спрашивайте себя: «Действительно ли я думаю так? Сказал(а) бы я так?»
4. Репутационный риск излишнего использования ИИ в заявке.
Донорское сообщество настороженно относится к использованию ИИ в заявках. В некоторых случаях вы увидите в описании заявки просьбу не использовать ИИ при подготовке заявки или просьбу отметить, что вы использовали технологию при подготовке. После получения заявки доноры могут проверить ее на вероятность создания текста с помощью ИИ — например, Originality.ai. Большая доля сгенерированного контента может привести к отклонению заявки и репутационным потерям проекта.
Что можно сделать?
- Перечитайте и отредактируйте сгенерированный текст перед его отправкой донору.
5. Прочие риски, связанные со злоупотреблением ИИ.
Эти риски не специфичны для фандрайзинга, но было бы ошибкой не упомянуть о них, если уж речь идет об ИИ. Примеры таких рисков при использовании злоумышленником собранных данных и/или ошибок в сервисах ИИ:
- «клонирование личности» и создание фейковых аккаунтов;
- социальная инженерия (приобрести доверие человека или группы людей и получить доступ к ценным ресурсам);
- маркетинговые задачи (например, для показа таргетированной рекламы).
Как снизить эти риски?
- Старайтесь не предоставлять ИИ избыточные личные данные о себе, близких людях, коллегах, проекте. Подобный совет уже звучал выше, и он является самым важным из всех.
- Пользуйтесь теми ИИ, которым доверяете. Можно посоветоваться с более продвинутыми коллегами, поискать в сети, не было ли инцидентов безопасности, связанных с ИИ, который вы присмотрели для себя.
- Соблюдайте базовые меры цифровой безопасности. Поскольку некоторые из угроз нацелены на ваши данные, следует позаботиться о безопасности устройств и учетных записей, используемых для написания грантовых заявок, включая надежные пароли, двухфакторную аутентификацию, своевременное обновление программ.. Шифруйте конфиденциальные данные, хранящиеся на устройствах и облачных платформах, чтобы защитить их от несанкционированного доступа.
- Повышайте осведомленность о безопасности. Обучайте себя и своих коллег эффективным практикам защиты данных и коммуникаций, развивайте культуру цифровой безопасности.