Береги честь смолоду и не делись своим личным с умными ботами

Все новости

Искусственный интеллект: робот-собака Spot теперь тоже может говорить благодаря ChatGPT

Чат-бот ChatGPT представляет новую функцию для большей защиты данных

ChatGPT: чат-бот с искусственным интеллектом обнаружил более 200 уязвимостей в системе безопасности

Проект Kaito AI привлек $5,3 млн на создание ИИ-поисковика для криптоиндустрии

Чат-бот с искусственным интеллектом для всех: OpenAI открывает API ChatGPT для разработчиков

99-летний Генри Киссинджер предупреждает: ChatGPT угрожает человеческому сознанию и демократии

Разработчики OpenAI задаются вопросом, почему ChatGPT так популярен

OpenAI запустила баунти-программу с вознаграждением до $20 000 за найденную ошибку в чат-боте ChatGPT

Создатель чат-бота OpenAI работает над роботом-гуманоидом

Чат-бот с искусственным интеллектом теперь позволяет создавать другие чат-боты с ИИ

Илон Маск создал ИИ-компанию для конкуренции с OpenAI

Сотрудники компаний обеспокоены появлением искусственного интеллекта

Что важнее – права и безопасность граждан или свобода развития инноваций AI?

Искусственный интеллект берет под контроль китайские спутники и следит за двумя странами

Илон Маск планирует создать конкурента OpenAI под названием TruthGPT

ChatGPT на работе: какой информацией нельзя делиться с чат-ботом

Искусственный интеллект: OpenAI хочет защитить GPT как товарный знак

Microsoft против Google: кто из гигантов выиграл благодаря использованию чат-ботов и ИИ

Искусственный интеллект: OpenAI вкладывает $700 000 в день на поддержание работы ChatGPT

Искусственный интеллект: чат-бот Google Bard теперь может писать и отлаживать код

Искусственный интеллект в действии: как нейронные сети решают задачи обработки данных?

Новинка от Hyperwrite: ПО с искусственным интеллектом для серфинга по интернету

Билл Гейтс назвал чат-бот на базе ИИ GPT «революционным» и важнейшим открытием с 1980 года

Искусственный интеллект захватывает швейцарские радиостанции

Профессор права Роб Николлс из Австралийского университета предупреждает о рисках использования ChatGPT и других ИИ-ботов в бизнес-процессах. Он советует пользователям ChatGPT никогда не передавать конфиденциальную информацию.
Любой, кто пользовался ChatGPT, оставался довольным высокой точностью и полезностью ответов. При этом часто забываются различные важные аспекты. Основной риск заключается в том, что ИИ нужен квалифицированный вопрос, чтобы создать из него точный ответ. Поэтому высока вероятность того, что квалифицированный вопрос содержит конфиденциальную или даже секретную информацию, которая не должна быть доступна для ИИ.
И содержание этого самого вопроса будет частью будущего обучающего набора данных почти со 100-процентной вероятностью. Это может вызвать всевозможные проблемы.

Копирайт может быть легко утрачен

Например, возможно непреднамеренное нарушение авторских прав в случае публикации защищенной надлежащим образом информации.


Например, Samsung недавно столкнулась с проблемами, вызванными тем, что сотрудники использовали ChatGPT в процессе разработки кода. Автоматизация ChatGPT может значительно сократить усилия по программированию в проектах по разработке программного обеспечения.
ChatGPT может даже автоматически определять используемый язык программирования и улучшать существующий код. Внутренний код Samsung оказался в наборе обучающих данных OpenAI.
Кроме того, Samsung также использовала новую версию GPT4 ChatGPT для записи заметок о встречах. GPT4 имеет очень точную функцию преобразования голоса в текст, что позволяет легко расшифровывать рабочие встречи и даже создавать протоколы до окончания встречи.
Поэтому Николлс предлагает заранее тщательно обдумать входные данные для ИИ-бота. Если приглашение содержит данные, достойные защиты с любой точки зрения, его не следует отправлять. Материалы, которые в противном случае никогда бы не были переданы за пределы компании, не должны становиться основой для запроса ИИ.

Запрет ChatGPT в Италии, вероятно, сохранится

В Италии даже было принято решение запретить ChatGPT из соображений конфиденциальности. Главный аргумент итальянских властей заключался в том, что данные, собранные ChatGPT, нарушают европейские правила защиты данных.
Похоже, Италия, как и другие европейские страны, решит отойти от такого подхода. Единственное изменение, которое, вероятно, потребуется, — это проверка возраста (старше 18 лет) пользователей.