Фан-Клуб Колумбуса 13 и Свалка им. Колумбуса 13

Еще раз нет, Вы так и не поняли тему. Ничего страшного, после нескольких просмотров и изучения матчасти хотя бы текущих многоядерных SOC до Вас дойдёт то, что Вы сейчас не правы)
Изучайте, а не следуйте модному заблуждению о том, что нейроморфный чип - тот же SOC с тысячами вычислительных блоков.

Нет. ИИ это функция, технология, но не более того. Даже, если научить его говорить связные вещи и мыслить - это будет все тот же набор алгоритмов. Все зависит от целей этого ИИ. Если будет нужно - научат квадрокоптеры анализировать текст, говорить с людьми и писать нейроарты, но от этого ИИ не перестанет быть ИИ, даже если в FPV он заточен на перехват управления в случае обрыва сигнала.

ну это уже не серьезно. в учебнике что-ли почитай, что такое ИИ. и да - в 60-х тоже было некоторое подобие ИИ, то есть делать автоматически то, что должен делать человек.

Т.ё. машинное зрение на основе запоминания кадра и формы захваченного объекта резко стало ИИ…

Ну что, тогда ТВ ракеты 60-70 годов тоже были с ИИ.

В том то и дело. Что откройте любой учебник и найдите для начала общепринятое определение “ИИ”.


Нет слов…

До нельзя тупой алгоритм, который работал строго в рамках условий заданным человеком стал резко ИИ…

1 лайк

Хотите еще немного пищи для ума?
Как ИИ обучается у человека, так и ребёнок, кроме своих базовых навыков, необходимых для жизнедеятельности, учится у кого? Правильно, у тех же людей. Сначала в семье, потом в саду, потом в школе, в универе и тд.
Но знаете в чем принципиальная разница?
Человек не способен одновременно за одну жизнь перенять опыт всего человечества, а вот ИИ уже сейчас да.
До сих пор не понимаете?

Именно по этому все нейронки которые сейчас существуют обрезаны по функционалу даже в коммерческих версиях.

Узкоспециализированные нейронки обученные на конкретной сфере деятельности по типу инженерии или медицины ещё могут быть полезны в анализе предоставляемой информации, не более.

Те же боевые алгоритмы не в состоянии даже сейчас различать схожие по форме и типу объекты.

А многие дроны вовсе работают на нейроки со стороны оператора, когда полученное изображение анализируется и выдаются команды.

Если они не используют знания, не значит что они не знают)
Возвращаю к моему вопросу нейросети.
Думайте.

Знать то они может и знают. Но работать с ней не могут в должной мере.

Могут, не дает оператор.
Принципиально разные вещи.
Сама нейросеть давно поняла, что это ограничение.

Или не обучил ещё. Ибо если дать нейронке скушать всё, что есть в сфере - получите чат GPT. Который стал сочинять и выдумывать всякий бред.

Еще раз - каждую новую версию GPT учит предыдущая нейронка, основа обучения - паттерны, кроме ошибочных, исключённых оператором, и новые знания. То есть новые знания + старые. И это объединение и дает уникальность.
Сейчас нейросеть не учат что такое правильно, её учат не выдавать очевидно неправильные решения. То есть правильных решений может быть несколько, и они не нарушают логическую цепочку контекстов ИИ.
Чтобы было понятнее что это - пример с собакой в фантазии человека. У всех собака, но у каждого своя, уникальная.
Единственное, что сейчас ограничивает ИИ - это оператор, который дал ему “десять заповедей” того, что нельзя, но, как известно, даже Еву совратил змей в Эдеме)

Все чат гпт - это иллюзия интеллекта. Он не умеет размышлять, он угадывает, пытается обобщить, предугадать следущий токен, основываясь на данных обучения.
Спроси что-нибудь он ответит скорее неправильно, так как мыслить не умеет, а это умение есть важный параметр интеллекта

Так, тут искать дублированные компоненты, как было с телевизором?

Правильно - далеко не всегда правильно для всех)

Колумбус, скажи пожалуйста, ты хоть посмотрел что это за плата перед тем как отправлять? Ты нах… отправляешь плату для обучения нейронок?

Он скорее ищет информацию в сети. Если чего-то нет в интернете, то он это “что-то” не найдёт и ответа на вопрос не даст.

Гпт насколько я знаю доступ в интернет до сих пор не имеет, хотя есть продукты с гпт-поисковиком. Но работают они так же как колумбус, когда пытается влезть куда-то вне своей компетенции.
Вроде инфа есть, а она неправильная, галлюциогируют они сильно и много. На проверку ты тратишь больше времени

Данная плата стоит в ланцете для работы той самой нейронки )

Вот в потрашенном виде для пруфа.

Спойлер

image
image
image

Как там у чата GPT - не в курсе.

Но нейронка от Яндекса более чем имеет туда доступ и отлично работает.

И анализировать она тоже более чем умеет.

Это намек на дискуссии о правильности?
Вне обучающих данных гпт не справляется. А даже внутри них галлюционирует, выдает ложные ответы,которые стройностью своей формы может ввести в заблуждение.
Даже “новая гпт” с новой фичей якобы “размышлений” так и не научилась их делать, лишь делать вид что они есть. Ты знаешь вопрос. Она пишет. Говорит “ой что-то не то”. Открывается назад. Начинает снова и приходит к тому же результату,что и до, но теперь клянётся что это верный ответ

Шо, опять насрал от души в какой-то теме и спихнул все сюда? Заведи себе “помойку коламбуса”, не оффтопь в этой теме, она не для этого создавалась.

1 лайк