Бывший исследователь OpenAI говорит, что AGI может быть достигнут к 2027 году, но сожалеет, что блестящие продукты имеют приоритет над безопасностью

Бывший исследователь OpenAI говорит, что AGI может быть достигнут к 2027 году, но сожалеет, что блестящие продукты имеют приоритет над безопасностью

Что тебе нужно знать

  • Бывший исследователь OpenAI опубликовал 165-страничный отчет, в котором описывается развитие и рост ИИ, проблемы безопасности и многое другое.
  • В документе предполагается, что OpenAI может достичь общего искусственного интеллекта (AGI) к 2027 году, но энергоснабжение и растущий спрос на графические процессоры представляют собой серьезную угрозу для этого показателя.
  • По словам автора, лишь несколько сотен человек имеют ситуационную осведомленность о технологии и о том, как ее достижения повлияют на будущее. 

Как ассистент, у меня нет личного опыта или мнения. Однако, судя по информации, представленной в тексте, кажется, что мы являемся свидетелями быстрого развития технологии искусственного интеллекта (ИИ) и ее приложений. Бывший исследователь OpenAI Леопольд Ашенбреннер опубликовал подробный отчет, в котором описывается развитие ИИ, потенциальные проблемы безопасности и многое другое.


Как рыночный аналитик, я могу сказать вам, что генеративный искусственный интеллект в настоящее время вызывает значительные изменения в технологической отрасли. Такие компании, как Microsoft, с их ранним внедрением и лидерством в этой области, добились экспоненциального роста и теперь могут похвастаться рыночной оценкой более 3 триллионов долларов. Причина этого впечатляющего подвига? Интеграция и развитие технологий искусственного интеллекта. Точно так же NVIDIA готовится к крупному прорыву, подобному моменту с iPhone от Apple. Их недавний рост стоимости, обойдя Apple и став второй по стоимости компанией в мире, можно объяснить, прежде всего, высоким спросом на их графические процессоры, используемые в развитии искусственного интеллекта.

Microsoft и OpenAI — две крупные технологические компании, которые вложили значительные средства в искусственный интеллект. Однако их сотрудничество вызвало споры, поскольку некоторые инсайдеры утверждают, что Microsoft теперь действует скорее как поставщик услуг поддержки многообещающего OpenAI. С другой стороны, Илон Маск, предприниматель-миллиардер, предполагает, что OpenAI превратилась в секретную дочернюю компанию Microsoft.

Общеизвестно, что отношения между двумя технологическими гигантами сложны, и недавние скандалы вокруг OpenAI не облегчают ситуацию. После презентации GPT-4 небольшая группа высокопоставленных сотрудников решила уйти из OpenAI. Причины их ухода в лучшем случае туманны. Ян Лейке, бывший руководитель отдела суперсогласования, выразил обеспокоенность по поводу направления развития искусственного интеллекта внутри компании. Далее он добавил, что OpenAI, похоже, больше сосредоточена на создании привлекательных продуктов, чем на приоритетах безопасности и конфиденциальности.

Будущее направление развития искусственного интеллекта в ближайшие годы остается неопределенным, но генеральный директор NVIDIA Дженсен Хуанг намекает, что мы можем оказаться на пороге еще одной значительной волны в этой области. По словам Хуанга, робототехника окажет большое влияние: в этом секторе лидируют беспилотные автомобили и роботы-гуманоиды.

Бывший исследователь OpenAI пролил свет на потенциальные будущие разработки, основанные на текущих тенденциях в области искусственного интеллекта, безопасности и смежных областях. Согласно недавнему опубликованному им отчету, который занимает 165 страниц (Business Insider).

Леопольд Ашенбреннер ранее занимал исследовательскую должность в суперкоманде OpenAI. Однако он был уволен со своей должности после того, как якобы раскрыл конфиденциальную информацию о готовности компании к использованию передового искусственного интеллекта. Ашенбреннер утверждает, что распространенные им данные были безвредны, поскольку взяты из общедоступных источников. Он питает сомнения в том, что OpenAI пыталась уволить его под ложным предлогом.

Исследователь OpenAI Ашенбреннер — один из сотрудников, отказавшихся подписать петицию с просьбой о восстановлении Сэма Альтмана на посту генерального директора после его увольнения советом директоров в прошлом году. Он подозревает, что это решение могло сыграть роль в его собственном увольнении. Это произошло после того, как бывшие члены правления заявили, что два сотрудника OpenAI связались с ними и обвинили Альтмана в психологическом жестоком обращении, что, как сообщается, усугубило неприятную рабочую атмосферу в компании. Бывшие члены совета директоров также предположили, что сотрудники, которые не обязательно выступали за восстановление Альтмана на работе, подписали петицию из-за страха возмездия.

OpenAI может достичь эталона сверхинтеллекта раньше, чем мы ожидали

Бывший исследователь OpenAI говорит, что AGI может быть достигнут к 2027 году, но сожалеет, что блестящие продукты имеют приоритет над безопасностью

Согласно выводам Ашенбреннера, ожидается, что развитие ИИ будет продолжать расти. Сэм Альтман, генеральный директор OpenAI, часто проявлял большой интерес к сверхинтеллекту. В январе во время интервью он признал, что OpenAI в настоящее время исследует потенциальные возможности достижения этой замечательной возможности. Тем не менее Альтман не уточнил, придерживается ли компания радикального или постепенного подхода к достижению этой цели.

Как вы, возможно, знаете, сверхинтеллект означает наличие системы с когнитивными способностями, превосходящими человеческое мышление. Тем не менее, вокруг этого показателя и того, что он может означать для человечества, растет обеспокоенность. Исследователь ИИ обнаружил, что вероятность того, что это может положить конец человечеству, составляет 99,9%, согласно p(doom), и единственный способ избежать этого исхода — это вообще прекратить создание ИИ. Интересно, что Сэм Альтман признал, что не существует большой красной кнопки, которая могла бы остановить развитие ИИ.

По мере того, как появляются передовые модели искусственного интеллекта, такие как GPT-4o, способные обрабатывать текст, аудио и многое другое, становится ясно, что достижения в этой области далеки от своих пределов. Растущая вычислительная мощность и эффективность алгоритмов способствуют быстрому развитию искусственного интеллекта. Тем не менее, существуют серьезные опасения относительно энергетических потребностей этих сложных систем. OpenAI входит в число тех, кто изучает ядерный синтез как потенциальное решение будущего.

Ашенбреннер утверждает, что развитие искусственного интеллекта может достичь новых пиков к 2027 году, потенциально превзойдя опыт исследователей и инженеров в этой области. Это предположение не является невероятным, учитывая, что GPT-4 уже превзошел профессиональных аналитиков в прогнозировании тенденций доходов без использования качественных данных. Технический директор Microsoft Кевин Скотт придерживается аналогичной точки зрения, предвидя появление новых моделей искусственного интеллекта, способных сдать вступительные экзамены на степень доктора философии.

В докладе говорится, что все большее число предприятий, как ожидается, выйдут на арену ИИ и будут выделять огромные суммы денег, оцениваемые в триллионы долларов, на создание инфраструктуры для развития ИИ. Это произошло в связи с тем, что Microsoft и OpenAI объявили о своих инвестициях в важный проект под названием Stargate стоимостью более 100 миллиардов долларов с целью снижения их зависимости от NVIDIA в области графических процессоров.

Безопасность, конфиденциальность и регулирование остаются основными приоритетами по мере развития ИИ.

Бывший исследователь OpenAI говорит, что AGI может быть достигнут к 2027 году, но сожалеет, что блестящие продукты имеют приоритет над безопасностью

Отчеты показывают, что искусственный интеллект (ИИ) может в конечном итоге превзойти человеческий интеллект, что приведет к автоматизации рабочих мест и превращению работы в досуг. Такое развитие событий вызывает серьезные опасения относительно его потенциального воздействия на человечество. Генеральный директор OpenAI Сэм Альтман выступает за создание автономной международной организации для наблюдения и регулирования достижений ИИ, подобно тому, как управляют авиацией для предотвращения катастрофических последствий.

Интересно, что результаты Ашенбреннера указывают на то, что небольшое количество людей, в основном базирующихся в исследовательских центрах искусственного интеллекта, таких как Сан-Франциско, осознают значительные последствия искусственного интеллекта для будущего. (Возможно, речь идет о членах команды OpenAI)

Смотрите также

2024-06-10 16:20