Штучний інтелект може стати корисним інструментом для роботи й навчання, але збереження чатів, можливість їх перегляду та передача до правоохоронних органів ставлять під сумнів приватність користувачів і змушують уважніше ставитися до власних цифрових дій.
Штучний інтелект став невід’ємною частиною повсякденного життя — від допомоги у навчанні до підтримки у складні моменти. Проте матеріал HackerNoon порушує питання довіри та конфіденційності: чи дійсно ChatGPT є лише другом, чи може стати джерелом інформації для правоохоронних органів, пише Traveller.
Автор статті зазначає, що платформа може зберігати журнали спілкування навіть після їх видалення користувачем, а у випадках потенційних загроз безпеці дані можуть бути передані на розгляд і навіть використані у слідчих діях. Це ставить перед користувачами складне питання: наскільки приватними залишаються їхні розмови із системою.
Згідно з офіційними поясненнями компанії OpenAI, будь-які повідомлення, що містять небезпечний контент або натяк на загрозу, можуть бути автоматично позначені, передані на перевірку та за потреби — до правоохоронних органів. Важливо, що користувач не отримує попередження про це і не має можливості контролювати подальшу долю своїх слів.
Навіть видалення історії спілкування не гарантує повного стирання даних. Судові рішення та внутрішні політики компанії передбачають можливість збереження архівів упродовж невизначеного часу, що створює нові ризики для конфіденційності користувачів.
Наприкінці 2023 року у Лас-Вегасі було заарештовано чоловіка, якого підозрювали у підготовці нападу на автомобіль Tesla Cybertruck. Під час слідства з’ясувалося, що розслідувачі мали доступ до його чатів із ChatGPT. Хоча система відмовилася надавати небезпечні інструкції, сам факт використання логів став ключовим елементом справи.
Цей випадок викликав дискусію у спільноті, яка приділяє особливу увагу цифровій безпеці. Він підтвердив: навіть відмова ШІ від небезпечних запитів не означає, що розмова зникне безслідно, адже все одно вона може бути зафіксована й використана.
Аналітики виділяють кілька основних ризиків, з якими стикаються користувачі. По-перше, відсутність конфіденційності на рівні лікарської чи адвокатської таємниці означає, що будь-які слова можуть бути використані у юридичному контексті. По-друге, існує ймовірність самозвинувачення навіть у випадку запитів, зроблених із цікавості.
Крім того, повна відсутність прозорості робить неможливим відстеження, коли саме чат було позначено або передано на перевірку. У поєднанні з фактом збереження «видалених» діалогів це створює ситуацію, у якій користувачі не мають контролю над власними даними.
Фахівці рекомендують дотримуватися кількох принципів, аби мінімізувати ризики. Насамперед варто утриматися від введення інформації, яку не хотілося б бачити у публічному доступі чи у правовому процесі. Також можна використовувати спеціальні режими без збереження даних, доступні у корпоративних версіях ChatGPT.
Користувачам радять відключати збереження історії в налаштуваннях і уникати тем, що пов’язані з юридичною, медичною чи іншою чутливою інформацією. У деяких випадках доречніше звертатися до фахівців-людей, а не до штучного інтелекту.
Нагадаємо, раніше ми писали про те, що блискавки виявилися потужним джерелом викидів у атмосферу.