Как быстро падают могучие. С момента выпуска Chatgpt год назад Сэм Альтман стал человеческим лицом революции генеративного ИИ. Совсем недавно, 16 ноября, соучредитель и руководитель Openai рекламировал преимущества ИИ руководителям и мировым лидерам на саммите АТЭС в Сан-Франциско.
Уже на следующий день он вылетел из компании. В сообщении в блоге на веб-сайте Openai говорится, что совет директоров «больше не доверяет» руководству Альтмана, поскольку «он не всегда был откровенен в своих общении с советом директоров». Еще один шок случился несколько часов спустя. Грег Брокман, председатель правления фирмы и еще один соучредитель, подал в отставку в ответ на увольнение Альтмана.
Это была тем более удивительным, что мистер Альтман, казалось, был на пике своих сил. Недавно он завершил мировое турне, во время которого все, от Нарендры Моди до Эммануэля Макрона, стремились встретиться с ним.
6 ноября он представил набор новых инструментов искусственного интеллекта на дне разработчиков Openai, сравнив его со Стивом Джобсом — параллель, которая сейчас кажется ироничной, учитывая, что в 1985 году Джобса тоже выгнали из компании, которую он основал.
📈 Всё кроме биткоина упало: и Мосбиржа, и S&P500 повалились на 3%. Из наших акций хуже всего выступили НКНХ (-7%), Фосагро, Сегежа ТКС и Яндекс (-6%). Я даже на фоне такого падения докинул немного денег в портфели, хотя и не собирался. Ну что ж, дальше упадёт — ещё придётся докинуть. Понятное дело, что Хулежебока (-2%) сработал гораздо лучше Хулиакций (-4%, потери больше 100 тысяч рублей) и я начал, наконец, набирать туда ОФЗ с постоянным купоном. От части переменных буду понемногу избавляться. Золото и серебро, кстати, тоже немного припали (на 1.5%), а вот у Бухла на той неделе были реальные проблемы: Х5 повалилась аж на 12.5%, Русагро — на 9.5%, Абрау-Дюрсо на 6.5%, а Магнит на 5.5%. Это была худшая неделя для Бухла в его истории — портфель потерял почти 7% от стоимости. Белуга пока держится, но скоро упадёт — у неё в четверг дивидендная отсечка. А Snowball Income выкатили большое обновление сервиса: теперь все портфели можно комментировать и смотреть по ним тепловые карты.
Прибыль OpenAI растёт. Годовая выручка компании приблизилась к $1 млрд, сообщал Bloomberg. Компания зарабатывает больше $80 млн в месяц, предоставляя доступ к своим технологиям обычным пользователям и бизнесу. За прошлый год доход OpenAI составил $28 млн.
Т.е. рост выручки – в 35 раз за год. При этом расходы OpenAI в 2022 году составили $540 млн.
В январе производитель искусственного интеллекта OpenAI анонсировал инструмент, который может спасти мир — или, по крайней мере, сохранить здравомыслие профессоров и учителей — путем определения того, был ли фрагмент контента создан с использованием генеративных инструментов искусственного интеллекта, таких как собственный ChatGPT.
Полгода спустя этот инструмент мертв, убит, потому что он не мог делать то, для чего был разработан.
Создатель ChatGPT OpenAI незаметно отключил свой инструмент обнаружения ИИ, AI Classifier, на прошлой неделе из-за «низкого уровня точности», заявила фирма.
Вроде все понятно-ну не шмогла я- не шмогла)
Перевод статьи Сэма Альтмана (генеральный директор OpenAI) от 2019.
Больше переводов в моём телеграмм-канале
Я наблюдал за тысячами основателей и много думал о том, что нужно для того, чтобы заработать огромную сумму денег или создать что-то важное. Обычно люди начинают с того, что хотят первого, а в конечном итоге хотят второго.
Вот 13 мыслей о том, как добиться такого выдающегося успеха. Все здесь делается проще, если вы уже достигли базового уровня успеха (благодаря привилегиям или усилиям) и хотите приложить усилия, чтобы превратить это в более высокий успех.[1] Но многое из этого применимо к любому человеку.
[1] Ответ на комментарий, который я написал на HN:
Одна из главных причин, по которой я в восторге от базового дохода, — это объем человеческого потенциала, который он раскроет, освободив больше людей для принятия рисков.
А до тех пор, если вы не родились счастливчиком, вам придется какое-то время пробиваться наверх, прежде чем вы сможете совершать большие прыжки. Если вы родились в крайней нищете, то это очень сложно:(
Основным автором этой статьи является Вастрик (известный техноблогер), а Павел Комаровский (RationalAnswer), Игорь Котенков (Сиолошная) и Кирилл Пименов оказывали ему посильную помощь в подготовке материала. Это первая из наших совместных статей про безопасность ИИ (но подробнее об этом уже в конце).
Добро пожаловать в 2023 год, когда мир снова помешался на искусственном интеллекте. Весь интернет соревнуется, кто еще какую задачу автоматизирует с помощью ChatGPT, и какой фейк от Midjourney лучше завирусится — а технобро-миллионеры, типа Илона Маска, подвозят фурами деньги в создание «настоящего» ИИ. Такого, который сможет сам учиться, развиваться и решать любые задачи, даже которые мы не умели решать раньше.
Сделали ролик с объяснением базовых принципов работы современных нейросетевых языковых моделей вроде ChatGPT. Если вы в душе не одупляете, вокруг чего вообще весь этот сыр-бор – то вам как раз сюда!
Чувствую, что это один из лучших по качеству роликов из всех, выходивших у меня на канале – мы прямо постарались изо всех сил сделать так, чтобы смотреть было и интересно, и понятно. Так что, если вы месяц назад не нашли времени прочитать наш с Игорем Котенковым текстовый лонгрид на эту тему, то самое время сейчас наверстать просмотром видеоверсии.
Всем привет, это опять статья от двух авторов! Как и в прошлый раз, за умные мысли и экспертизу в искусственном интеллекте отвечал Игорь Котенков (автор канала Сиолошная про машинное обучение, космос и технологии), а за подачу и кринжовые мемы отдувался Павел Комаровский (автор канала RationalAnswer про рациональный подход к жизни и финансам).
Мы предполагаем, что вы уже читали нашу предыдущую большую статью про эволюцию языковых моделей от T9 до ChatGPT с объяснением того, чем вообще являются нейронки, и как они работают – так что мы не будем заново объяснять самые базовые вещи. Вместо этого мы сразу нырнем в детали свежевышедшей модели GPT-4.
У нового ChatGPT те же старые проблемы: он не может остановить хакеров, создающих вредоносные инструменты.
На этой неделе OpenAI с большой помпой выпустила последнюю версию своего программного обеспечения для машинного обучения GPT-4. Одна из особенностей, которую компания выделила в новой версии, заключалась в том, что в ней должны были быть правила, защищающие ее от использования киберпреступниками.
Однако исследователи говорят, что всего за несколько дней они обманули его, заставив создавать вредоносное ПО и помогать им создавать фишинговые электронные письма, точно так же, как они делали это с предыдущей итерацией программного обеспечения OpenAI, ChatGPT.
С другой стороны, они также смогли использовать программное обеспечение, чтобы залатать дыры в киберзащите.
Исследователи из компании Check Point, занимающейся кибербезопасностью, показали как им удалось обойти блокировку OpenAI при разработке вредоносного ПО, просто удалив слово «вредоносное ПО» в запросе.
На всякий случай сразу оговоримся: у этой статьи два автора. За всю техническую часть (и за всё хорошее в статье) отвечал Игорь Котенков – широко известный чувак в узких кругах русскоязычной тусовки специалистов по искусственному интеллекту, а также автор канала Сиолошная про машинное обучение, космос и технологии. За мольбы «вот тут непонятно, давай как-нибудь попроще!» и за добавление кринжовых неуместных мемов был ответственен Павел Комаровский – автор канала RationalAnswer про рациональный подход к жизни и финансам.