ИИ для поиска денег

Как безопасно и эффективно использовать ИИ в фандрайзинге

Согласно исследованию Теплицы, 7 из 10 гражданских проектов пользуются генеративными ИИ при подготовке грантовых заявок. Они применяют их при работе на самых разных этапах — от брейнсторминга идеи до содержания. Хотя ИИ бывает полезен для решения некоторых задач, его результаты почти никогда не являются финальной работой, которую можно использовать в заявке.

Теплица рекомендует пользоваться большими языковыми моделями западных производителей (например, ChatGPT от Open AI, Google AI Studio). Если вы находитесь в России и какие-то из инструментов недоступны, используйте VPN для доступа к ним. Вы можете обратиться за бесплатным VPN написав нам в бот: @teplica_feedback_bot

Если ваша модель угроз подразумевает возможность давления и преследования со стороны российских властей, мы не рекомендуем использовать для работы генеративные модели российских производителей (например, Yandex GPT), а также пользоваться ботами ChatGPT в Телеграме. В первом случае зарегистрированные в России компании будут вынуждены по запросу властей раскрыть переписки пользователя. Использование ботов-посредников не дает пользователю надежных гарантий сохранения конфиденциальности запросов. 

В этом материале мы хотим остановиться на рисках, которые важно учитывать в процессе фандрайзинга при использовании больших языковых моделей — приложений и встроенных инструментов типа Copilot. Наши советы помогут минимизировать эти риски. Материал основан на данных репозитория рисков ИИ от Массачусетского технологического института.

1. Риск утраты конфиденциальности: модель может ненамеренно выдать в ответе другому пользователю персональные данные, доступные в ее системе.

  • Скрапинг данных. Инструменты генеративного ИИ умеют скрапить (автоматически получать данные с веб-страниц) персональную информацию из интернета, что может привести к раскрытию конфиденциальных данных или нарушению конфиденциальности. Так, модель может выдать в одном из ответов полное имя или адрес электронной почты реального человека.
  • Данные пользователей генеративного ИИ. В целях улучшения модели инструменты ИИ часто обучаются на реальных диалогах с людьми. При этом они собирают и хранят информацию о пользователях. Возникает риск нарушения конфиденциальности и злоупотребления персональными данными.
  • Выходные данные генеративного ИИ. Инструменты ИИ могут случайно включать в генерируемый контент персональную информацию о людях или организациях, загруженную в модель самими пользователями. 

Что можно сделать?

  • Не давайте ИИ персональную информацию. Если загружаете текст, замените сенситивные данные: имена, даты рождения, контакты. После работы с LLM вы сможете поменять данные на настоящие. В частности, если работаете через Copilot, потратьте пару минут и сделайте копию документа для работы ИИ, в которой не будет актуальных данных. 
Примеры удачного и неудачного текста

Неудачный текст: 
«В команду проекта входят: а) руководитель Центра «Правозащита», редактор сайта «Права человека» Тимур Иванов; б) журналистка Анфиса Петрова (ранее 11 лет работала  в изданиях «Голод», «Сайга.Инфо» и пр.); в) адвокат Евгений Крюков (ранее «Синицкий и партнеры», г.Красноярск, ныне г. Берлин), автор популярного блога «Права человека в современной России».

Удачный текст: 
«В команду проекта входят а) руководитель известной правозащитной организации и редактор сайта правовой помощи гражданам; б) журналистка с многолетним опытом работы в оппозиционных СМИ; в) адвокат, выехавший из страны, автор популярного блога о правах человека».

  • Отключите функцию обучения на ваших данных. Большие языковые модели улучшаются за счет обучения на пользовательских данных. Это делается с разрешения самого пользователя. Его можно отозвать в настройках. Если ваша задача — сохранить в секрете планы вашего проекта, советуем отключить эту функцию. 
Как отключить обучение на ваших данных в ChatGPT и Perplexity

В ChatGPT: Профиль — Настройки — раздел «Элементы управления данными» — пункт «Улучшить модель для всех» — «Выключить».

В Perplexity: Профиль — Настройки — пункт «AI Data Retention» — «Выключить».

В других инструментах это также должно быть возможно. Если нет — стоит воздержаться от использования такого инструмента.

  • При переводе текста с помощью специализированных инструментов изучите их политику сбора и обработки данных. При необходимости используйте платные тарифы. 
Подробнее про Deepl и Grammarly

И DeepL, и Grammarly заявляют, что делают все для безопасности данных пользователей. Deepl гарантирует, что ваша информация не будет прочитана третьей стороной только на платном тарифе. Это обеспечивается с помощью шифрования TLS и немедленного удаления текста.


  • Полезную информацию можно найти в политике конфиденциальности, приватности и/или пользовательском соглашении. Обращайте внимание на пункты, непосредственно связанные со сбором и обработкой персональных данных: под какой лицензией распространяется сгенерированный контент, есть у пользователя на него права, а также политику раскрытия информации третьим сторонам. Старайтесь использовать инструменты ИИ, ставящие в приоритет безопасность данных и конфиденциальность пользователей. Вы даже можете попробовать «скормить» многостраничный текст ИИ и задать ему вопросы, например, «использует ли компания Х информацию пользователей для обучения своей нейросети». 

2.  Риск манипуляции данными: инструменты генеративного ИИ могут создавать ответы с некорректной информацией, что способно повлиять на достоверность текста грантовой заявки.

Модели иногда «галлюцинируют»: выдумывают факты, проводят некорректные причинно-следственные связи, неправильно интерпретируют информацию. Когда одну из моделей ИИ попросили выдать рецепт пиццы, она предложила «добавить в соус 1/8 стакана нетоксичного клея, чтобы придать ему больше липкости». Ответ основывался на давнем шуточном комментарии в одном из обсуждений на форуме. ИИ не понял, что это несерьезная рекомендация и добавил ее в собственный ответ. 

В случае с грантовыми заявками подобная нелепость может стоить организации финансовой помощи. Заявки проверяют люди, и логические нестыковки будут для них очевидны. Получится эффект «заказанной курсовой», когда «защищающийся» сам не знает, что написано в тексте.

Что можно сделать?

  • Перед тем, как использовать в заявке текст, сгенерированный ИИ, внимательно его перечитайте.
  • Проверяйте факты, которые использует модель. Также проверяйте, какие были использованы  источники. 

Поисковики на основе ИИ — например, Perplexity и Microsoft Copilot — автоматически выдают источники, которые они использовали при создании текста. Если речь о других инструментах, можно прямо в промпте просить включить ссылки на источники. Пример такого промпта: «Найди информацию о количестве политзаключенных в России и приведи ссылки на источники». 

  • При использовании ИИ используйте приемы, сокращающие «галлюцинации». Рекомендуем изучить группу приемов под названием «заземление» (grounding). Они помогают связать абстрактные знания модели с примерами из реального мира. 
Пример техники «заземления»

Самый простой из этих приемов — давать в промпте побольше контекста. Например, описать, какой документ вы пишете, для какой аудитории, какой у нее уровень осведомленности о проблеме и т.д. 

3. Риск несоответствия ИИ человеческим ценностям.

Инструменты ИИ могут генерировать контент, не соответствующий человеческим ценностям или отражающий систему ценностей, не соответствующую вашей. Например, ИИ может генерировать текст с позиции жесткого запрета на ношение оружия, в то время как вы отстаиваете более либеральный подход. 

Что можно сделать?

  • Внимательно перечитывайте сгенерированный контент перед использованием от своего имени. Спрашивайте себя: «Действительно ли я думаю так? Сказал(а) бы я так?»  

4. Репутационный риск излишнего использования ИИ в заявке.

Донорское сообщество настороженно относится к использованию ИИ в заявках. В некоторых случаях вы увидите в описании заявки просьбу не использовать ИИ при подготовке заявки или просьбу отметить, что вы использовали технологию при подготовке. После получения заявки доноры могут проверить ее на вероятность создания текста с помощью ИИ — например, Originality.ai. Большая доля сгенерированного контента может привести к отклонению заявки и репутационным потерям проекта. 

Что можно сделать?

  • Перечитайте и отредактируйте сгенерированный текст перед его отправкой донору. 

5. Прочие риски, связанные со злоупотреблением ИИ.

Эти риски не специфичны для фандрайзинга, но было бы ошибкой не упомянуть о них, если уж речь идет об ИИ. Примеры таких рисков при использовании злоумышленником собранных данных и/или ошибок в сервисах ИИ:

  • «клонирование личности» и создание фейковых аккаунтов;
  • социальная инженерия (приобрести доверие человека или группы людей и получить доступ к ценным ресурсам);
  • маркетинговые задачи (например, для показа таргетированной рекламы).

Как снизить эти риски?

  • Старайтесь не предоставлять ИИ избыточные личные данные о себе, близких людях, коллегах, проекте. Подобный совет уже звучал выше, и он является самым важным из всех.
  • Пользуйтесь теми ИИ, которым доверяете. Можно посоветоваться с более продвинутыми коллегами, поискать в сети, не было ли инцидентов безопасности, связанных с ИИ, который вы присмотрели для себя. 
  • Соблюдайте базовые меры цифровой безопасности. Поскольку некоторые из угроз нацелены на ваши данные, следует позаботиться о безопасности устройств и учетных записей, используемых для написания грантовых заявок, включая надежные пароли, двухфакторную аутентификацию, своевременное обновление программ.. Шифруйте конфиденциальные данные, хранящиеся на устройствах и облачных платформах, чтобы защитить их от несанкционированного доступа.
  • Повышайте осведомленность о безопасности. Обучайте себя и своих коллег эффективным практикам защиты данных и коммуникаций, развивайте культуру цифровой безопасности.