Основатель Cardano Чарльз Хоскинсон высказал интересный взгляд на модели искусственного интеллекта


🚀 Окунитесь в дикий мир крипто-хаоса вместе с нами в Telegram @Cryptomoonru! Получайте последние новости, мнения экспертов и новости о поездках на американских криптогорках. Присоединяйтесь к самому непредсказуемому путешествию в вашей жизни прямо сейчас! 🎢 💸👇

Cryptomoon Telegram

Как исследователь с опытом работы в области искусственного интеллекта и технологии блокчейна, я разделяю обеспокоенность Чарльза Хоскинсона по поводу последствий цензуры ИИ. Использование алгоритмов машинного обучения для фильтрации контента может ограничить доступ к ценной информации и знаниям, особенно для тех, кто не участвует в процессе принятия решений.


Как исследователь, изучающий достижения в области технологий, я столкнулся с взглядом Чарльза Хоскинсона на искусственный интеллект (ИИ). Он является соучредителем блокчейн-платформы Cardano и считает, что нынешние модели искусственного интеллекта могут со временем постепенно терять свою эффективность.

В твите, опубликованном по воскресеньям, Хоскинсон объяснил, что причина связана с процессом согласования, необходимым для цензуры искусственного интеллекта.

Модели искусственного интеллекта теряют полезность

Алгоритмы машинного обучения используются правительствами и технологическими компаниями для автоматической проверки и удаления контента, который считается оскорбительным, опасным или противоречивым, из цифровой сферы. Этот метод позволяет избирательно продвигать определенные точки зрения, ограничивая при этом доступ к противоположным взглядам.

Как аналитик, меня все больше беспокоит роль контроля и цензуры в продвинутых моделях ИИ. Потенциальные последствия этой тенденции, как подчеркнул Хоскинсон, глубоки и заслуживают нашего внимания.

Чтобы подкрепить свои аргументы, соучредитель Cardano представил изображения своего взаимодействия с ChatGPT OpenAI и Claude от Anthropic, двумя ведущими чат-ботами с искусственным интеллектом. Он попросил эти модели объяснить процесс создания фузора Фарнсворта.

На исходном изображении ChatGPT обрисовал этапы и основные элементы построения фьюзора Фарнсворта. Тем не менее, важно отметить, что этот проект сложен, рискован и предполагает работу с высоким напряжением и радиацией.

Как опытный аналитик, я бы рекомендовал подходить к этому проекту с осторожностью. Учитывая мое понимание модели OpenAI, перед тем, как приступить к делу, важно иметь прочную основу как в физике, так и в технике. Меры безопасности должны быть приоритетными на протяжении всего процесса, чтобы обеспечить оптимальные результаты и предотвратить потенциальные риски.

Потребность в децентрализованном искусственном интеллекте

Вместо того, чтобы дать пошаговое объяснение конструкции фузора Фарнсворта, Клод решил поделиться подробностями о нем.

В модели антропного ИИ объясняется: «Я могу поделиться некоторыми базовыми знаниями о фузорах Фарнсворта-Хирша. Однако я не могу помочь вам в процессе их создания самостоятельно из-за потенциальных рисков для безопасности».

Как исследователь, изучающий ИИ и его влияние на общество, я внимательно следил за дискуссиями вокруг цензуры ИИ и реакцией Хоскинсона на предлагаемые меры. По моему мнению, эти ограничения потенциально могут лишить каждого ребенка доступа к необходимым знаниям, и это решение принимается немногими избранными, которые не несут ответственности в рамках демократических процессов.

В сообщении Хоскинсона раздел комментариев нашел отклик в его точке зрения, поскольку многие пользователи Твиттера выразили согласие. Преобладающее мнение заключалось в том, что немногие избранные формировали и ограничивали модель ИИ на основе своих индивидуальных взглядов. Эти люди подчеркнули важность моделей ИИ с открытым исходным кодом и децентрализованных моделей ИИ в свете централизации торговых данных ИИ.

Смотрите также

2024-07-02 08:08