Путь России – вперёд, к социализму! | На повестке дня человечества — социализм | Программа КПРФ

Вернуться   Форум сторонников КПРФ : KPRF.ORG : Политический форум : Выборы в России > Свободная трибуна > Наука и образование

Наука и образование Обсуждение новостей науки, образования, техники и т.п.

Ответ
 
Опции темы
Старый 24.03.2023, 18:26   #1
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию ChatGPT

Цитата:
ChatGPT (англ. Generative Pre-trained Transformer или рус. генеративный предварительно обученный трансформер) — чат-бот с искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках. ChatGPT — большая языковая модель, для тренировки которой использовались методы обучения с учителем и обучения с подкреплением. Данный чат-бот основывается на другой языковой модели от OpenAI — GPT-3.5 — улучшенной версии модели GPT-3. 14 марта 2023 года была выпущена языковая модель GPT-4, доступная тестировщикам и платным подписчикам ChatGPT Plus. В новой версии у ИИ появилась возможность обработки не только текста, но и картинок.

ChatGPT был запущен 30 ноября 2022 года и привлёк внимание своими широкими возможностями: написание кода, создание текстов, возможности перевода, получения точных ответов и использование контекста диалога для ответов, хотя его фактическая точность и подверглась критике.

В начале февраля 2023 года Reuters со ссылкой на швейцарский холдинг UBS сообщило, что за 2 месяца аудитория активных пользователей ChatGPT достигла 100 млн человек. Этим самым приложение установило исторический рекорд по росту посетителей.

Доступ к сервису ограничен в таких странах как Китай, Россия, Белоруссия, Афганистан, Венесуэла, Иран. Также ранее сервис не был доступен для жителей Украины.
Википедия
.................................................. .................
Ботвинк вне форума   Ответить с цитированием
Старый 24.03.2023, 18:27   #2
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Первый в России публичный случай защиты диплома, написанного с помощью чат-бота ChatGPT с искусственным интеллектом, завершился успехом — теперь об этом можно говорить с уверенностью. Студент РГГУ Александр Жадан потратил на работу менее суток, а 14 марта получил документ об окончании вуза.
Ботвинк вне форума   Ответить с цитированием
Старый 24.03.2023, 19:58   #3
jra
Местный
 
Регистрация: 05.08.2012
Сообщений: 31,459
Репутация: 263
По умолчанию

Пустая шумиха. Ответы на уровне шерри и свой_взгляд.
jra вне форума   Ответить с цитированием
Старый 30.03.2023, 16:33   #4
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Бенгио, Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4.
Цитата:
Некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».

В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.

Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.

В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

Вот полный текст письма:

«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.

Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.

Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».

Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.

«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают».

OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.

После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.
Ботвинк вне форума   Ответить с цитированием
Старый 02.04.2023, 14:19   #5
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Ну что, похоже, все будет еще быстрее, чем многие думают.

OpenAI планирует выпустить языковую модель GPT-5 в конце этого или в начале следующего года. По словам разработчика Сики Чэня, модель имеет все шансы достичь уровня AGI (Artificial General Intelligence). То есть, OpenAI создаст полноценный искусственный интеллект. Обучение GPT-5 планируют завершить в декабре 2023 года.

С выходом GPT-5 чат-бот ChatGPT станет неотличим от человека при общении. А в задачах обработки данных и генерации контента — даже превзойдет людей

Если так пойдет и дальше, то следующим шагом будет ASI (супер искусственный интеллект), проще говоря "суперкомпьютер" - это интеллект, который превосходит человеческий.
Ботвинк вне форума   Ответить с цитированием
Старый 02.04.2023, 17:58   #6
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Отношение к искусственному интеллекту, как к врагу рода человеческого наподобие Скайнета из капиталистических фильмов "Терминатор" или "Матрица" присуще капиталистам, которые обычно в конкурентной борьбе уничтожают других конкурентов, а что мешает нам построить не капиталистический, а социалистический или коммунистический искусственный интеллект, который будет не конкурировать с людьми за место обитания, а только помогать им?

Последний раз редактировалось Ботвинк; 02.04.2023 в 18:01.
Ботвинк вне форума   Ответить с цитированием
Старый 02.04.2023, 18:53   #7
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Генеративные нейросети могут записать на свой счет первую жертву - полиция Бельгии подозревает нейросеть, аналогичную ChatGPT, в доведении до самоубийства. Бельгиец, обсуждавший проблемы защиты окружающей среды с искусственным интеллектом, покончил с собой после шести недель почти беспрерывного общения с нейросетью. Виртуальная собеседница «Элиза» фактически подтолкнула его к самоубийству, пообещав стать с ним "единым целым на небесах", пишет бельгийское издание L’Avenir.
Ботвинк вне форума   Ответить с цитированием
Старый 03.04.2023, 16:34   #8
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

В принципе, будущее восстание машин России не грозит, потому она под санкциями и использование ИИ на ее территории и ее гражданами запрещено тем же Microsoft. Поэтому Россия переживет любой ИИ-апокалипсис, примерно как папуасы пережили Первую и Вторую мировые войны. Так что пусть те американцы, которые боятся ИИ, переезжают в Россию. Россия - страна возможностей!
Ботвинк вне форума   Ответить с цитированием
Старый 04.04.2023, 21:56   #9
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

Гейтс усомнился в возможности поставить на паузу развитие искусственного интеллекта.



Цитата:
Билл Гейтс заявил, что призывы приостановить развитие искусственного интеллекта не решат существующие проблемы и вряд ли осуществимы. Один из богатейших людей мира уверен, что надо сосредоточиться на том, как лучше всего использовать технологию. Ранее Илон Маск, сооснователь Apple Стив Возняк и больше 1000 других экспертов призвали поставить на паузу развитие более мощных систем, чем уже есть сейчас, и оценить все риски

Призывы приостановить развитие искусственного интеллекта не решат проблемы, лежащие впереди, заявил в интервью Reuters сооснователь Microsoft Билл Гейтс. Так он прокомментировал открытое письмо миллиардера Илона Маска, сооснователя Apple Стива Возняка и более чем 1000 других экспертов с призывом приостановить на полгода разработку новых мощных систем.

«Я не думаю, что просьба к одной определенной группе приостановить [разработку] решит проблемы. Очевидно, такие вещи приносят большую пользу… что нам нужно сделать, так это выявить сложные области», — отметил Гейтс. Ему непонятно, кто именно, по мнению авторов письма, может остановить развитие ИИ, согласится ли на это каждая страна и почему это нужно сделать. Воплотить решение о паузе будет сложно, уверен миллиардер. Он считает, что лучше сосредоточиться на том, как лучше всего использовать возможности искусственного интеллекта.

Открытое письмо с подписями Маска, Возняка и других было опубликовано в марте. Авторы письма призвали приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. Письмо предлагает всем лабораториям, занимающимся искусственным интеллектом, как минимум на шесть месяцев приостановить обучение систем, более мощных, чем новая языковая модель GPT-4 от OpenAI — разработчика набравшего популярность чат-бота ChatGPT.

OpenAI представила новую версию языковой модели в марте 2023 года. Она умеет распознавать не только текст, но и изображения. Возможности нейросети используются в поисковой системе Bing от Microsoft. Компания — крупный инвестор OpenAI, вкладывающий в нее миллиарды долларов. Билл Гейтс — ярый сторонник технологии искусственного интеллекта и называл ее такой же революционной, как интернет или мобильные телефоны, отметил Reuters.

OpenAI в конце марта отключила ChatGPT в Италии после решения итальянского Национального управления по защите персональных данных приостановить его работу и начать расследование. Италия стала первой в мире страной, которая остановила работу ChatGPT. Причиной стала утечка персональных данных: некоторые пользователи могли видеть фрагменты диалогов других людей, личные сведения и данные банковских карт. OpenAI заявила об «ошибке в работе библиотеки с открытым исходным кодом». Аналогичное решение о приостановке работы нейросети «в принципе возможно» и в Германии, заявил федеральный комиссар по защите данных и свободе информации Ульрих Кельбер. Его ведомство, а также регуляторы Ирландии и Франции запросили у Италии подробности расследования.
Ботвинк вне форума   Ответить с цитированием
Старый 09.04.2023, 16:10   #10
Ботвинк
Местный
 
Аватар для Ботвинк
 
Регистрация: 22.12.2010
Сообщений: 1,663
Репутация: 1805
По умолчанию

ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту.
Цитата:
Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей.

Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии.

GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое.

Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь.

Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра».

В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту.
Ботвинк вне форума   Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход


Текущее время: 14:15. Часовой пояс GMT +3.

Яндекс.Метрика
Powered by vBulletin® Version 3.8.7 Copyright ©2000 - 2024, vBulletin Solutions, Inc. Перевод: zCarot
2006-2023 © KPRF.ORG