
Руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко подчеркнул, что, несмотря на продолжающиеся дискуссии и отсутствие окончательных доказательств утечек данных через нейросети, не стоит пренебрегать потенциальными рисками. Он настоятельно рекомендует проявлять осторожность.
По мнению эксперта, загрузка конфиденциальных сведений в ChatGPT и подобные нейросетевые сервисы создает риск их неправомерного использования в перспективе. Кузьменко отметил, что развитие технологий делает вчерашние меры безопасности уязвимыми сегодня.
«Категорически запрещено загружать любую информацию, способную скомпрометировать вас или третьих лиц», — заявил Кузьменко. Он перечислил конкретные примеры таких данных: паспортные и платежные данные, сетевые идентификаторы, медицинские записи, а также логины и пароли от различных сервисов. Любые сведения, позволяющие идентифицировать человека и потенциально нанести ему вред, также входят в этот список.
Эксперт подчеркнул, что наиболее безопасный подход к работе с нейросетями — это использование обезличенной информации. Это подразумевает тщательное удаление всех персональных данных перед их загрузкой. В случаях, когда информация потенциально может быть использована во вред, Кузьменко советует отказаться от использования нейросети и решить задачу своими силами.
Следует отметить, что ранее появлялись сообщения о том, как ChatGPT помог жительнице Уэльса выявить серьезное заболевание. Искусственный интеллект подсказал, что родинка на ладони может быть признаком онкологии.
Roskachestvo Expert Warns About Risks of Data Upload to ChatGPT
Sergey Kuzmenko, Head of Roskachestvo`s Digital Expertise Center, emphasized that despite ongoing discussions and a lack of definitive proof regarding data leaks through neural networks, potential risks should not be underestimated. He strongly recommends exercising caution.
According to the expert, uploading confidential information to ChatGPT and similar neural network services creates a risk of their unauthorized use in the future. Kuzmenko noted that technological advancements make yesterday`s security measures vulnerable today.
«It is strictly forbidden to upload any information that could compromise you or third parties,» Kuzmenko stated. He listed specific examples of such data: passport and payment details, network identifiers, medical records, as well as logins and passwords for various services. Any information that allows identification of an individual and could potentially cause harm is also included in this list.
The expert stressed that the safest approach when working with neural networks is to use anonymized data. This implies thoroughly removing all personal information before uploading it. In cases where information could potentially be used for harm, Kuzmenko advises against using the neural network and instead solving the task independently.
It should be noted that there have been previous reports of ChatGPT helping a Welsh resident identify a serious illness. The artificial intelligence suggested that a mole on her palm could be a sign of oncology.
