Блог им. DrugGoracio
1. Я формулировок добиться не могу четких, меня интересует ТОЛЬКО ОТЛИЧИЕ одного от другого. Есть две версии:
2. Только ИИ способен к самообучению. Любой софт способный к самообучению является ИИ и не является «не ИИ»
3. ИИ сразу или в процессе самообучения должен(❗️) начать обрабатывать неструктурируемые данные. Если ИИ не умеет и не научится обрабатывать неструктурированные данные — это «не ИИ»
У кого какое мнение?
Ставьте лайки, чтоб пробиться вверх — хотелось бы получить больше ответов
у ИИ нет своего Я и интереса самоубочаться
он труп
живой но труп
или анализатор БД
и ничего более
но как анализатор БД вполне годный инструмент
для контроля — ИИ не способен видеть будущее и прогнозировать
он может и сам создать для себя БД но под интерес человека
это прислуга для мозгов
инструмент типа лопаты или молотка
Михаил, возможно. Но то, что есть все равно нуждается в определении.
Продвинутый софт?
Надо признаться, что информацию он достаточно эффективно ищет
для вас ?
на здоровье
можно работать напрямую с сутью
если слово впереди реала то это путь к обману даже самого себя
каждый выбирает в этом свой путь
слово вторично — так учил Декарт
И феноменологов
ru.wikipedia.org/wiki/Метод_Ньютона
Михаил, это частный случай задач оптимизации то есть?
Но результаты сего — поражают. Запрограммировать руками программистов то что делает ChatGPT просто нереально.
Только, если возможно не из сферы творчества, или той его части, которая связанна с искусством. Ну, то есть не написание текста с одним и тем же содержанием множеством кучерявых способов.
Для других задач есть другие сети. Например в распознавании голоса произошел огромный прогресс. А если вспомнить, то скажем десять лет назад это работало сооовсем на так гладко.
Технология используется ровно та же самая, другие только структуры сетей и другие данные для обучения.
1. «есть или нет опухоль». А мы ресурсов не потратим ли больше, проверяя вывод ИИ на достоверность? Это похоже на хороший софт. Чем отличается «есть опухоль или нет« от определения уровня холестерина в крови?
2. «вождение автомобиля». А люди разрешат ИИ-водителю «самообучаться»?
1. Конечно нет. Обучение делается один раз и не так это дорого стоит. А проверять на достоверность будет врач онколог в любом случае.
Зато будет красный флажок чтобы не пропустить например опухоль в начальной стадии.
2. самообучение это сложный вопрос. конечные устройства этим как правило не занимаются, потому что для обучения нейронки нужны принципиально другие мощности вычислительные.
могут передаваться данные в центр для расширения датасетов для обучения, это да.
1. Определение опухоли требует хорошого доктора (в условном небольшом городке его может просто не быть), который тратит на это некоторое время. Современные сети для анализа изображений делают это на уровне выше хорошего доктора и на уровне консилиума хороших врачей. Происходит это мгновенно. По сути нужен интерфейс для загрузки изображения и сразу будет ответ. Основной препон сопротивление врачей и вопрос ответственности. Когда доктор ошибается — есть понятный механиз наказания. Когда сеть ошибается (а она ошибается хотя и реже хорошего врача), кто будет нести ответственность
2. Механизм обучению вождению достаточно сложный (обучение с подкреплением, имитационное обучение), но в итоге эта таже функция с кучей параметров и решение некой оптимизационной задачи. Нет никакого ии-водителя которому чего-то разрешают — есть хитрый алгоритм поиска экстремума с помощью градиентных методов
А софт сам не может этого сделать.