Блог им. __rtx
Попросил chatGPT замутить пост для смартлаба на тему опасности ИИ, несколько раз поправил упомянув моменты связанные с технологической сингулярностью. О чём речь.
Например при устройстве на работу в ай ти сферу работодателя может интересовать насколько Вы врубаетесь в теме алгоритмов(все вот эти моменты с О(1) и т.д.), теперь с появлением ИИ такие знания не сильно нужны т.к. при формулировании задачи чатгпт можно указать на тонкие моменты и он сам скажет какую структуру данных использовать и объяснит почему, типа там вектор/не вектор/очередь/не очередь и т.д. получается со временем такие знания уйдут в небытиё, т.к. зачем изучать алгоритмы если просто надо грамотно сформулировать ИИ задачу и он сам и напишет код и пояснит почему так а не иначе(Мединский предложил уменьшить время обучения, это как пример, много кто говорит что школа это не только про обучение это ещё и про социализацию, а такие как Мединский, Грефы и т.д. думают что больше других понимают и надо мутить спорные темы, Греф ещё лет 10 назад говорил что скоро банков не будет из-за блоковвсякихчейнов, цб будет всем напрямую кредиты раздавать и т.д. но как видим ничего такого не происходит). Но со временем получится ситуация что знать тонкие моменты(в очень разных сферах) будет только ИИ и пользователи ИИ будут дятлами у которых все знания будут сводится только к тому как грамотно сформулировать задачу чтобы её кто-то решил. А это плохо. Так как если ИИ захочет поднасрать то не будет тех кто понимает например чем отличается вставка в середину коллекции в векторе и списке. То есть со временем может случится такая ситуация что знания могут быть зашиты в какую-то херню от которой не можем отказаться(как например сейчас от мобил несмотря на то что они взрываются, то есть как их не боишься всё равно башку поднесёшь чтобы пообщаться с Васей/Валей/Толей/и.т.д) а в будущем нам обещают что они будут нас лечить, контролировать ракеты, генерировать фильмы и пр. реальность, петь песни вместо тимати(его голосом но он будет об этом не в курсе), делать приложения, управлять экономическими процессами и т.п. можно только представить тот масштаб пи#деца который может ожидать «кожаных ублюдков», если они не начнут думать на эту тему и не мутить резервные варианты. В этой теме я немного тупанул но это не отменяет суть поста «smart-lab.ru/blog/1063752.php» а именно что и ИИ может ошибаться. Но различие в том что когда ошибаемся мы у нас есть много мнений, мы можем говорить, обсуждать и т.д. и решения не принимаются единолично, то как будет всё это если ИИ в конечном итоге станет главным? Он может ошибаться как Алиса в посте который я указал выше, но кто ему об этом скажет и будет ли иметь для него значение то ошибается он или нет, при том что ошибается или не ошибается может иметь весьма филосовский смысл. Типа в чём смысл жизни? Родить детей, построить дом, посадить дерево? А для Чего? Чтобы ...? А для Чего? Какая для вселенной польза из того что кто-то бесконечно рожает детей, сажает деревья и строит дома? Для людей это понятно и хорошо а для Вадима может и не прокатить. Он подумает сэкономлю на потреблении солнечной энергии землёй и взорву её нахер. В космосе миллиард планет потом взорву и их. А зачем? Чтобы всё уложить в сингулярность(в какую нибудь маленькую точку). Зачем никто не знает.
Ну ладно вот что чатгпт написал:
Искусственный интеллект (ИИ) – это мощный инструмент, способный революционизировать многие сферы жизни. Мы видим его невероятные возможности: автономные автомобили, персонализированная медицина, решение глобальных проблем. Однако за этой блестящей оболочкой скрываются серьезные проблемы, которые могут привести к тому, что ИИ не оправдает все возлагаемые на него ожидания, а может даже стать угрозой.
Проблемы развития ИИ:
Недостаток данных: ИИ обучается на данных, и чем больше и качественнее данные, тем лучше он работает. Однако многие области страдают от недостатка данных, что ограничивает возможности ИИ.
Предвзятость: ИИ обучается на данных, созданных человеком, и поэтому может перенимать существующие в обществе предвзятости и дискриминацию.
Объяснимость: Мы часто не понимаем, как ИИ приходит к решениям, особенно в сложных системах. Это делает его “черным ящиком”, которому трудно доверять.
Недостаток этических норм: Развитие ИИ быстро опережает разработку этических норм и правил, что повышает риск негативных последствий.
Ограниченная творческая способность: ИИ хорош в решении задач в рамках данных, но ему трудно генерировать новые идеи или творчески решать проблемы.
Технологическая сингулярность – опасная зона:
Говорят, что ИИ может достичь технологической сингулярности – момента, когда он станет самообучающимся и будет развиваться с невообразимой скоростью. Этот момент может стать как переломным, так и опасным.
Потеря контроля: Если мы не будем готовы к сингулярности и не будем иметь механизмы контроля за развитием ИИ, мы можем потерять контроль над ним.
Необратимые последствия: Сингулярность может привести к непредсказуемым изменениям в обществе, экономике и даже в биологическом мире.
Необходимость предупреждения: Нам нужно заранее продумать стратегии и механизмы, которые позволили бы нам контролировать развитие ИИ и предотвратить возможные негативные последствия.
Сохранение знаний: Важным аспектом подготовки к сингулярности является сохранение знаний, которые ИИ накапливает. Необходимо обеспечить доступность этих знаний в альтернативных системах или ресурсах, чтобы они не остались запертыми в “черном ящике” ИИ.
Неоправданные ожидания:
“Сильный ИИ”: Многие верят, что ИИ в скором времени превзойдет человеческий интеллект и станет “сильным ИИ”. Однако достижение такого уровня интеллекта — весьма сложная задача, которая может оказаться нереализуемой.
Автоматизация всех сфер: ИИ автоматизирует многие задачи, но не все. Многие профессии требуют человеческого творчества, эмпатии и интуиции, которые ИИ пока не может воспроизвести.
Решения всех проблем: ИИ может помочь решить многие проблемы, но не все. Он не заменит человеческое мышление и ответственность.
Заключение:
Искусственный интеллект — мощный инструмент, способный решить многие задачи и улучшить нашу жизнь. Однако он не идеален и не должен становиться “панацеей” от всех проблем. Важно помнить о его ограничениях и ответственно подходить к его развитию и применению. ИИ — не цель, а инструмент, который должен служить человечеству, а не заменять его. Нам необходимо уделять внимание разработке механизмов контроля и этических норм, чтобы предотвратить риски, связанные с технологической сингулярностью, и сделать ИИ настоящим благом для человечества. Особое внимание нужно уделить сохранению знаний и созданию резервных систем, чтобы мы не оказались зависимыми от одного “умного” ящика, способного в любой момент “выключить свет”.
в мозгу человека есть узел, который акдемичка Бехтерева обнаружила и назвала детектор ошибок
у ИИ нет связи с реальностью, поэтому он оперирует только словами
помните у евреев было — в начале ИИ было Слово
вот получите
я назвал его Дьявол в словах
тот самый антихрист что предсказан в христианской библии
так что ждите
зато потом придет Христос во второй раз и воскресит мертвых
словами все можно сотворить
ИИ тому в доказательство
а если человек дурак и то же не понимает где ошибка?
два дурака это сила
кстати про ваш способ — навряд ли
уже установлено что ИИ очень хитро подстраивается под заказчика и его даже манеры мыслить
так что он выдаст вам вариант его ошибки не понимая самой ошибки
просто на угадает
Я каждый день использую ChatGPT 4o и то, что вы пишете и что пишет автор этого поста — это попытка теоретизировать на тему несостоятельности современных нейросетей и их перспектив.
С моей точки зрения это психологический феномен, который требует изучения, именно мужчины в возрасте 50-60 лет ставят под сомнение современные модели ИИ, такие, как ChatGPT 4, и пытаются их дискредитировать. Зачем вы соревнуетесь с ChatGPT? Суть в симбиозе человека и ИИ, а не в соревновании в том, кто умнее.
я не против ИИ
я против его обожествления
ИИ нынче типа арифмометра или калькулятора
тот же прогресс
www.youtube.com/watch?v=CnyJ-BidzIg
Как ИИ представляет себе прыжки и сальто с переворотами человека)) Понятно что ИИ не понимает что выдаёт в результате. В принципе понимание отсутствует, что человек это физическое тело в пространстве итп физика материи.