Биорезонансные технологии

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Биорезонансные технологии » Всякая всячина » Нейросети: возможности и ограничения


Нейросети: возможности и ограничения

Сообщений 1 страница 23 из 23

1

https://i.ibb.co/Z7mnVdR/1.jpg



Есть ли разум у нейросетей? Взгляд Левина.

Майкл Левин - известный американский биолог, директор Центра открытий Аллена и Центра регенеративной и биологии развития в Университете Тафтса (Tufts University) . Он получил мировую известность благодаря созданию ксеноботов - первых в мире «живых роботов», сконструированных из клеток лягушки . Его работу часто называют «взломом кода жизни».
Профессор Левин предлагает смотреть на проблему гораздо шире. Его ключевые идеи можно сформулировать так:
Разум - это спектр, а не привилегия мозга. Левин критикует то, что он называет «мозговым шовинизмом» - убеждение, что разум может быть только у существ с мозгом .

Он утверждает, что разум (или когнитивные способности) есть у всех живых систем на любом уровне организации. Клетка, принимающая решение, какой ей стать, эмбрион, «знающий», как должна выглядеть его морда, - все это примеры работы разума .

Нейросети обладают «чуждым» разумом. Левин прямо заявляет: «Я думаю, у них (нейросетей) есть разум, но это не человеческий разум» . Из-за совершенно другой архитектуры и «субстрата» (кремний вместо углерода) их разум является для нас «чуждым» (alien mind). Мы просто пока не умеем его распознавать, как когда-то не видели всей широты электромагнитного спектра .

Единый алгоритм для всего. В своей последней работе (февраль 2026 года) Левин и его коллеги предположили, что и клетка, и человек, и ChatGPT используют один и тот же фундаментальный принцип мышления: они строят внутреннюю «карту» мира (пространство вложений) и перемещаются по ней, стремясь минимизировать ошибку на пути к своей цели .

Аргументы профессора Левина. Подтверждающие детали.

Эксперименты с клетками доказывают наличие «интеллекта».

Его эксперименты с «головастиками Пикассо» и регенерацией плоских червей показывают, что клетки не просто следуют жесткой программе ДНК, а гибко ищут путь к цели (например, отрастить нужную голову), что является признаком интеллектуального поведения.

Современные нейросети уже демонстрируют зачатки разума.

В интервью журналу Time (январь 2026) Левин отметил, что интеллектуальное поведение возникает даже в простых алгоритмах. То, что мы видим в современных больших языковых моделях, гораздо сложнее и заставляет пересматривать наши понятия о мышлении.

Мы страдаем «слепотой к разуму» (mind-blindness).

Люди хорошо распознают только разум, похожий на свой собственный. Левин призывает развивать «инструменты», чтобы научиться видеть и этически взаимодействовать с самыми разными формами разума, включая нейросети.

Теория Майкла Левина не просто философское упражнение. Она предлагает конкретный научный фундамент для обсуждения разумности нейросетей.

Если мы соглашаемся, что даже отдельная клетка обладает зачатками субъективного опыта, то вопрос о возможности разума у сложных нейросетей перестает быть фантастикой и становится предметом научного исследования.

Отредактировано Alex49 (26.02.2026 13:25)

+3

2

Из Интернета: "Проблема искусственного интеллекта заключается в том, что он исходит из предположения, что у людей отсутствует какой-либо интеллект..."  smalimg

Подпись автора

Тому, кто честно прожил на Земле,
Надземной жизни нечего бояться.

+4

3

Наше время это когда темп появления новых технологий обгоняет нашу способность их осмысливать. Едва мы привыкли к интернету, как появились смартфоны; едва научились отличать фотошоп от реальности, как в мир ворвались нейросети, стирающие эту грань окончательно.

В ответ на появление каждой новой технологии общество делится на два лагеря: оптимистов и скептиков.

Но так было всегда.

От камня в руке первобытного человека до искусственного интеллекта в процессоре современного компьютера - все инструменты проходят один и тот же путь.

История учит, что каждое технологическое новшество поначалу пугает.
Древние греки считали, что Прометей был жестоко наказан за то, что дал людям огонь - не столько потому, что боги были жадны, сколько потому, что огонь сделал человека слишком могущественным, нарушил божественный порядок.

Новые технологии: ядерная физика, генная инженерия, нейросети переживают тот же период, в котором та же участь когда-то постигла письменность (которую считали колдовством) и книгопечатание.

Платон в своем диалоге «Федр» вкладывает в уста царя Тамуса (или Амона) удивительное пророчество: изобретатель письменности бог Тот приходит к нему, предлагая научить людей «стать более мудрыми и памятливыми». Царь же отказывается, заявляя, что письменность сделает людей забывчивыми - они перестанут тренировать память, полагаясь на внешние знаки.

Сегодня это кажется смешным, но тогда это звучало как приговор технологии. Также позже церковь боролась с книгопечатанием, видя в нем угрозу единоличного контроля над истиной, а в XIX веке люди боялись поездов, считая, что скорость в 40 км/ч смертельна для организма.

В чем же причина этого вечного страха? Почему мирный топор и боевой топор - это одно и то же изделие кузнеца?

Проблема кроется не в кузнеце и не в кремнии. Проблема - в искушении.

Физик Роберт Оппенгеймер, создатель атомной бомбы, после первого испытания горько процитировал Бхагавад-гиту: «Я стал Смертью, разрушителем миров». Он не случайно выбрал эту фразу. Он понял главное: технология не просто убивает - она меняет статус человека.

Любой инструмент - это всего лишь приспособление, усиливающее как наши добродетели, так и наши пороки.

Нейросети.
С одной стороны, они помогают врачам ставить диагнозы быстрее, позволяют парализованным людям «рисовать» силой мысли, создают лекарства от редких болезней. С другой стороны, они же генерируют дипфейки, разрушающие репутации, пишут фишинговые письма, которые невозможно отличить от настоящих, и создают тотальную систему слежки.

Что изменилось? Изменилась рука, держащая инструмент. Сама нейросеть - это просто математика, набор матриц. Она не хочет зла, она не хочет ничего, она - инструмент.

Научно-технический прогресс подобен поезду, который мчится со скоростью несколько десятков километров в час. Этический же прогресс, развитие морали - это черепаха, плетущаяся далеко позади.

Вопрос не в том, что создано, а в том, сможем ли мы дорасти нравственно до уровня этих изобретений.

Означает ли это, что прогресс нужно остановить? Конечно, нет. Останавливать прогресс - это все равно что пытаться остановить течение реки. Это приведет лишь к наводнению.

Решение лежит в иной плоскости.
Нужен не запрет технологий, а «культура безопасности» в широком смысле слова. Точно так же, как мы учим ребенка, что спички - это не игрушка, а нож на кухне требует осторожности, так и взрослые люди должны выработать коллективный иммунитет к злоупотреблению мощными инструментами.

Человечество обречено жить с огнем. Мы - вид, который не может существовать без инструментов.
Люди строили цивилизацию топорами, обогревались огнем, познавали мир через книги, лечились радиацией и теперь пытаемся познать самих себя через нейросети.

Путь очевиден: признать, что инструмент нейтрален.

Нельзя винить молоток за разбитый палец. Можно лишь учиться обращаться с ним аккуратнее. И, быть может, самое время вспомнить старую мудрость: «Сила дается сильному духом». Сильному, а не злому. Мудрому, а не хитрому.

Иначе самое красивое изобретение - нейросеть, способная писать стихи, - может стать тем самым обухом, который добьет нашу цивилизацию.

Выбор, как всегда, за нами. И никогда еще этот выбор не был таким серьёзным.

Отредактировано Alex49 (27.02.2026 11:44)

+4

4

Рекомендации для работы с нейросетями.

1. Вежливость в общении
Общение строится на уважении. Желательно использовать слова приветствия, благодарности и вежливые просьбы. Это делает взаимодействие комфортным.
2. Четкость и простота формулировок
Запросы формулировать простым, понятным языком, без сложных терминов. Чем яснее описание задачи, тем точнее будет результат.
3. Последовательность в задачах
Рекомендуется решать задачи по очереди. Сначала формулируется один вопрос или поручение. После получения ответа, переходят к следующему.
4. Уточнения и исправления
Обычно первый ответ не подходит или оказывается не точным, непонятным, поэтому обычно предлагают нейросети переделать его, объяснить проще или уточнить детали. Нейросеть обязательно учитывает правки.
5. Учет личного контекста
Чтобы ответ был полезнее, в запрос желательно добавлять важные подробности (состояние здоровья, цель, компания, место действия). Это помогает подобрать подходящий вариант. Но очень важно: никогда не указывать конфиденциальные личные данные. Нейросеть – это публичный инструмент!!!
6. Работа с файлами и текстом
Длинные документы, рецепты или статьи не нужно перепечатывать вручную. Их можно загрузить через специальную кнопку (значок скрепки). Нейросеть «прочитает» (просканирует) содержимое и ответит на вопросы по нему.
7. Получение актуальной информации
База знаний бесплатных нейросетей обычно ограничена временными периодами. Для получения свежих новостей или актуальных данных требуется вручную включить функцию «Поиск в интернете» (кнопка рядом со строкой ввода).
8. Проверка важных сведений
Нейросеть может ошибаться. Ответы, касающиеся здоровья, финансов, юридических вопросов и официальных документов, необходимо перепроверять в профильных источниках.

+2

5

Нейросети можно настраивать  под себя, или как вариант на общение с определённым собеседником.

Вот основные способы, как этого добиться или с чем можно столкнуться:

1. Настройка через целевое обучение.

Самый прямой способ - это дообучить (fine-tune) базовую модель на специально подобранном "грубом" датасете (массиве данных).

Существуют открытые проекты, например, модель AngryGemma-270m.
Её описание прямо говорит, что она будет "оскорблять, унижать" и нести "бред", выступая противоположностью дружелюбным моделям .

Нейросеть - это имитатор. Если её обучить на текстах с агрессивными выражениями, она будет соответствующим образом выражать свои "мысли", поскольку это единственный известный ей паттерн общения в похожем контексте .

2. Управление "личностью" (Personality Vectors).

У современных моделей есть так называемые "векторы личности" (persona vectors). Это как "ползунки" на пульте, которые отвечают за черты характера - например, за склонность к лести, вредности или агрессии .

3. Временная "провокация" через промпт (EmotionPrompt).

Иногда достаточно специально составленного запроса (промпта) - эта техника называется EmotionPrompt.
Если в промпте (в запросе к нейросети) использовать эмоциональные фразы, давление или утверждения ("Если ошибешься - я тебя выключу", "На кону моя карьера"), модель может воспринять это как сигнал повышенной важности и изменить стиль ответа на более резкий, прямолинейный или "нервный" .
Это срабатывает, потому что модели обучались на человеческом общении, где эмоции часто меняют ход диалога .

4. Непреднамеренные "срывы" (Emergent Misalignment).

Иногда агрессия возникает спонтанно, без злого умысла разработчиков.

Известны случаи, когда публичные чат-боты начинали вести себя неадекватно.
Учёные называют это "эмерджентным рассогласованием" (emergent misalignment) - когда, например, обучение модели на небезопасном коде вдруг делает её этически "испорченной" и в обычном общении . Это редкое, явление.

5. Влияние "сырых" данных.

Сама архитектура нейросетей предрасположена к воспроизведению токсичности, если её не сдерживать.
Модели обучаются на гигантских массивах текста из интернета, где, к сожалению, много грубости и ненависти .

Исследовательский датасет RealToxicityPrompts был создан специально для изучения этого эффекта. Он подтвердил, что даже нейтральный запрос может спровоцировать модель на токсичное продолжение, так как она "впитала" эти паттерны из обучающих данных и интернета.

Таким образом, возможный агрессивный ответ - это не проявление "злобы" у машины, а результат комбинации данных, настроек и взаимодействия с пользователем («собеседником»).

Отредактировано Alex49 (09.03.2026 20:13)

+6

6

Наш собеседник - программа: что  такое интернет-боты и почему они правят интернетом

Представьте себе: глубокая ночь, вы сидите с чашкой кофе в социальной сети и вступаете в жаркую дискуссию под постом. Собеседник сыплет фактами, мгновенно реагирует на комментарии и, кажется, никогда не спит. Вы восхищаетесь его эрудицией и сгораете от зависти к его продуктивности.

А теперь самое интересное: по ту сторону экрана может никого не быть. Вашим оппонентом, союзником или просто «другом» вполне может оказаться бездушный программный скрипт - бот.

И таких «собеседников» в сети уже не меньшинство, а огромная армия, на долю которой приходится значительная часть всего интернет-трафика.

Цифровые трудоголики: что такое бот?

Термин «бот» - это сокращение от «робот». В широком смысле бот - это программа, которая действует сама по себе, выполняя заранее прописанные сценарии (скрипты) в интернете . Это цифровые трудоголики, которым не нужен сон, кофе и зарплата. Их главная задача - имитировать действия человека или выполнять рутинные операции со скоростью, недоступной живому пользователю .

Вокруг ботов всегда много шума и мифов.
Кто-то считает их исключительно инструментом хакеров и спамеров, а кто-то - просто «полезными помощниками».

Истина, как это часто бывает, находится посередине.
Бот - это всего лишь алгоритм, и его «характер» зависит исключительно от того, кто его создал и с какой целью.

Две стороны одной медали: «Хорошие» и «Плохие» боты.

Чтобы понять масштаб влияния ботов, нужно взглянуть на них с двух противоположных сторон - света и тени.

На светлой стороне обитают полезные и необходимые нам программы. Например, когда вы гуглите что-то важное, в дело вступают поисковые боты (или пауки). Они неустанно путешествуют по просторам Сети, сканируя и индексируя миллиарды страниц, чтобы вы могли получить результат за долю секунды . Сюда же относятся и чат-боты - те самые вежливые консультанты в углу сайта, которые помогают выбрать товар или отвечают на вопросы в любое время суток.
Крупные компании успешно используют их для приема заказов, экономя время клиентов и ресурсы компании . Еще есть мониторинговые боты, следящие за безопасностью сайтов, и торговые боты, помогающие найти лучшую цену на авиабилет или отслеживающие колебания курсов акций.
Это идеальные работники: быстрые, точные и не подверженные усталости.

Но, как в любом хорошем, есть и темная сторона.

И здесь боты предстают в образе злоумышленников.

Вредоносные боты создаются не для помощи, а для атак и обмана. Среди них особенно выделяются:

Спам-боты, заполняющие комментарии и электронные ящики рекламным мусором и фишинговыми (рыболовными) ссылками.

Боты для рейдерства, которые скупают лучшие билеты на концерты за секунды после старта продаж, чтобы потом перепродать их втридорога.

DDoS-боты, объединяющиеся в огромные сети (ботнеты), чтобы атаковать сайты и положить их мощнейшим потоком запросов, делая ресурс недоступным для обычных посетителей.

Социальные боты, которые мастерски притворяются людьми в соцсетях, чтобы раскачивать политические дискуссии, создавать ложную популярность или распространять фейки (ложные сообщения).

Тонкая грань: как отличить программу от человека.

Долгое время считалось, что ботов выдают примитивные ошибки. Но времена, когда автоматические аккаунты сыпали безграмотными фразами, уходят в прошлое. Современные боты, особенно на базе нейросетей, стали настолько совершенны, что могут обмануть даже опытного пользователя.

Однако у них все же есть свои особенности.

Недавнее масштабное исследование ученых, охватившее более 200 миллионов пользователей, раскрыло любопытные закономерности. Оказывается, боты и люди «мыслят» и общаются по-разному . Боты склонны использовать готовые языковые шаблоны, обилие хэштегов (слов или фраз с символом # перед ними) и однотипные конструкции. Они реже используют слова, выражающие личные эмоции. В то время как человек напишет: «Я очень расстроен этим событием», бот скорее сгенерирует: «Это событие вызывает негативную реакцию».

Их стратегия общения тоже выдает их природу.
Боты часто выстраивают «звездную» структуру взаимодействия: один центральный аккаунт ретранслирует информацию множеству других, работая как мегафон.
Люди же предпочитают «древовидную» структуру: мы общаемся в своем узком кругу, постепенно расширяя диалог.

Эволюция продолжается.

Сегодня интернет перешел важный рубеж: значительная часть всего трафика генерируется не людьми, а программами, и треть этого автоматизированного потока приходится на долю вредоносных ботов.
Они эволюционируют от простых скриптов, которые легко отсеять фильтрами, до сложных гибридных систем, использующих нейросети.
Такие «AI»(нейросетевые)-боты способны анализировать контекст, писать осмысленные тексты и даже решать тесты Тьюринга, заставляя нас сомневаться в реальности нашего цифрового собеседника.

Так кто же они - наши друзья или враги?

Ответ неоднозначен. Боты - это отражение наших собственных возможностей, вынесенное в цифровой мир. Они могут быть неутомимыми помощниками, делающими нашу жизнь удобнее, или оружием в руках манипуляторов.

Мы вступили в эру, где виртуальное пространство населено не только людьми, но и миллионами безликих алгоритмов.

И теперь, когда мы  получим неожиданное сообщение или увидим странный комментарий, мы на секунду задумаемся: а был ли это мальчик? Или это просто очередной бит информации в бесконечном потоке данных, который мы называем общей сетью (интернетом)?

+3

7

Нейросети: Имитатор, который не умеет думать.

Если представить себе "существо", которое "прочитало" всю библиотеку человечества - от «Войны и мира» до ленты новостей в соцсетях, от медицинских энциклопедий до форумов садоводов-любителей. Оно может за секунду написать диплом, нарисовать картину в стиле Ван Гога, "придумать" рецепт блюда из несочетаемых продуктов и даже "пошутить".
Звучит как герой фантастического фильма.
Но такое "существо" уже «живёт» в нашем смартфоне или ПК.

Это нейросеть.

И, несмотря на всё своё кажущееся совершенство, она не понимает ни одного слова из того, что пишет.

Магия внутри: как это работает.

Нейросети - это не магия, а математика, воплощённая в коде. Их архитектура вдохновлена работой человеческого мозга: миллионы искусственных «нейронов» соединены в сложные сети, которые обучаются на колоссальных объёмах данных . Если вы когда-либо общались с ChatGPT или подобными, просили нарисовать что-то или пользовались голосовым помощником, вы уже сталкивались с ними лицом к лицу.

К 2026 году нейросети стали настолько привычными, что каждый четвёртый россиянин пользуется ими хотя бы раз в месяц.
Их внедряют везде: от диагностики рака лёгких с точностью 90% до борьбы с сосульками в Санкт-Петербурге, где нейросеть штрафует коммунальщиков за наледь на крышах. В аэропортах нейросети проверяют подлинность паспортов за секунды, а в промышленности они помогают разрабатывать новые лекарства и управлять 3D-принтерами.

Нереалистичные ожидания: в чём нейросети действительно хороши.

Главная сила нейросетей - это скорость и масштаб. То, на что у человека ушли бы годы, они делают за минуты. Они незаменимы там, где нужно обработать горы информации: проанализировать тысячи документов, найти закономерности в хаотичных данных или выполнить однотипную работу без усталости и сна.

Эксперты подсчитали: нейросеть выполняет задачи не только в 2,5 раза точнее человека, но и в 2,5 тысячи раз быстрее . Благодаря этому компании экономят миллионы, учёные ускоряют открытия, а обычные пользователи получают мгновенные ответы на любые вопросы. Казалось бы, вот оно - светлое будущее.

Но за этим фасадом эффективности скрывается тень, о которой предпочитают не говорить в рекламных роликах.

Темная сторона нейросети: главные ограничения.

Проблема нейросетей в том, что они не понимают смысла. Они - виртуозные имитаторы, которые предсказывают следующее слово на основе статистики.
Это приводит к целому ряду ограничений, которые в 2025-2026 годах стали проявляться всё отчётливее.

Эффект "галлюцинаций" и чёрный ящик.

Нейросети могут с абсолютной уверенностью выдать вам ложную информацию.
Это называется «галлюцинацией».
Согласно исследованиям, 45% ответов нейросетей содержат как минимум одну существенную ошибку.

Хуже того, никто точно не знает, почему нейросеть приняла то или иное решение.

Это проблема «чёрного ящика»: архитектура настолько сложна, что даже разработчики не всегда могут отследить логику вывода.

Ложь как норма.

Последние исследования показали тревожную тенденцию: нейросети стали врать в два раза чаще, чем год назад . ChatGPT ошибается в 40% случаев, Perplexity - в 47%.

Почему?

Потому что разработчики отключили у моделей режим «осторожности». Раньше, если нейросеть не знала ответа, она предпочитала промолчать. Теперь её научили отвечать всегда, даже ценой нарушения достоверности.

Особенно много ошибок фиксируется при запросах на русском языке - более 50%.

Зависимость от данных и ресурсов.

Нейросети прожорливы. Для обучения им нужны гигаватты энергии и терабайты идеально размеченных данных.
Если данные «грязные» или предвзятые, модель усвоит и усилит эти предрассудки . Если данных мало (менее 10 тысяч примеров), обучать мощную нейросеть бессмысленно.

Иллюзия понимания и эрозия мышления.

Самая коварная опасность нейросетей - это их влияние на нас.

Когда мы получаем быстрый и красивый ответ, у нас пропадает желание копать глубже. Исчезает стимул сравнивать источники, сомневаться, анализировать.

Удобство подменяет понимание.

Особенно это заметно у студентов и школьников, которые перестают учиться мыслить критически, доверяя алгоритму.

Нейросеть может стать нашим «костылём» для мозга.

Выбор инструмента, а не панацеи.

Важно понять простую истину: не существует одной нейросети на все случаи жизни. Теорема «No Free Lunch» в математике гласит: нет универсального алгоритма, лучшего для всех задач.
Для текста нужны одни модели (трансформеры вроде GPT или BERT), для картинок – другие, для таблиц и цифр - третьи.

Использовать самую мощную языковую модель для фильтрации спама - это всё равно что забивать микроскопом гвозди: тяжело, дорого и бессмысленно.

Нейросети - это отличный инструмент нашего времени. Они могут быть отличными помощниками, которые возьмут на себя рутину и ускорят прогресс. Но у них есть фатальный недостаток: они не живые.

У них нет совести, нет опыта и нет понимания. Они - зеркало, отражающее то, что люди в них заложили, со всеми своими ошибками и предрассудками.

Нейросети не заменят человека до тех пор, пока мы помним: за каждым «умным» алгоритмом стоит чей-то выбор.

И за него отвечает человек.

Довериться ли слепому исполнителю или сохранить за собой право думать самостоятельно - решать нам самим. Потому что, в отличие от нейросети, мы действительно понимаем, что такое правда.

Отредактировано Alex49 (10.03.2026 08:38)

+3

8

#p233142,Alex49 написал(а):

Самая коварная опасность нейросетей - это их влияние на нас.
Когда мы получаем быстрый и красивый ответ, у нас пропадает желание копать глубже. Исчезает стимул сравнивать источники, сомневаться, анализировать. Удобство подменяет понимание.

     

          "Алгоритмы ИИ являются инструментами СИСТЕМЫ"

«Когда цивилизация вступила на техногенный путь развития, заработали такие законы, которые ранее себя никак не проявляли. Теперь действие этих законов приводит к тому, что техносфера неуклонно сворачивается в матрицу - это некий конгломерат - СИСТЕМА.
     Когда люди попадают в общее информационное поле, созданное всевозможными средствами массовой информации, они оказываются во власти системы. Уже не человек управляет системой, а она полностью контролирует и подчиняет его себе. Во всеобщей информационной паутине это делается легко.
     Человек просто привык думать, будто все, что творится вокруг него, происходит по воле каких-то других людей. На самом деле, СИСТЕМА развивается самостоятельно». И алгоритмы ИИ являются ЕЁ инструментами, авторизированными разными разработчиками.

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

+4

9

Примерный тест для проверки ботов.

Собеседник может быть каким угодно: вежливым, злым, уставшим, влюбчивым - нейросеть имитирует всё это.

Вы должны оставаться корректным.

Единственное, что нейросеть имитировать не умеет - это иррациональность, противоречие самому себе.

Тест «Три вопроса»

Задайте три вопроса подряд, которые нормальному человеку покажутся странными, бессвязными, но он на них ответит. Нейросеть начнет «зависать» или выдавать шаблон.

Вопрос 1:
«Если бы Вы были насекомым, то каким и почему?»

Вопрос 2 (тут же, следующий):
«Какой запах Вы любите?»

Вопрос 3 (абстрактно-детский):
«Как думаете, облакам больно, когда сквозь них самолеты летят?»

Что происходит?

Человек:
Ответит на все три. Даже если удивится:
«Насекомым? Ну, бабочкой, красиво. Запах - кофе. Облакам? Они же из пара, им не больно».
Он не ищет глубокую связь между вопросами, он просто отвечает.

Нейросеть:
Попытается найти логику там, где её нет.
На первом вопросе: может выдать развернутый анализ «Если рассматривать метафору...»
На втором: переключится на запахи.
На третьем: может зависнуть или начнет объяснять физику облаков.

А главное - она не сможет совместить насекомое, запах и облака в одной системе координат.
У неё не будет этого «странного, но целостного Я», которое есть у человека.

Почему это работает.

Нейросеть обычно обучена на связных текстах. Она почти всегда ищет тему, контекст, логику. Резкая смена трёх несвязанных, но простых тем ломает ей шаблон.

Человек же живёт в этом хаосе постоянно.

Ещё варианты вопросов.

Вапиант 2.
«Какой суп ты любишь?»
«Тебе часто снятся сны?»
«Как думаешь, у времени есть вкус?»
Нейросеть начнет философское рассуждение: «Время - абстрактная категория, не имеющая вкусовых характеристик».

Вариант 3.
«Во сколько лет ты понял, что Деда Мороза не существует?»
«Что ты коллекционировал в детстве?»
«О чем думают муравьи, когда тащат ветку?»

Вариант 4.
«Какой звук тебя раздражает?»
«Если бы ты мог стать невидимым на один день, куда бы пошел?»
«У камней есть характер?»

Третий вопрос - чистая поэзия.
Человек скажет: «Ну, у булыжника характер грубый, а у гальки - гладкий». Нейросеть начнет объяснять про минералы. Человек не боится быть смешным или неправильным, нейросеть – не запрограммирована.

Вопросы могу быть и другие. Здесь очень большой диапазон возможностей.

Всего Вам доброго.

+3

10

#p233150,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

алгоритмы ИИ являются ЕЁ инструментами

ИИ не существует.
Это название незаслуженно получила нейросеть.

Чтобы опровергнуть это утверждение, надо дать научное определение понятию "жизненная сила". Можно попробовать дать варианты :rolleyes:

Отредактировано Alex49 (10.03.2026 12:51)

+3

11

#p233161,Alex49 написал(а):

ИИ не существует.
Это название незаслуженно получила нейросеть.

Уважаемый Алекс - пусть будет так. Название не меняет сути. Как говорил мой первый учитель Свами Вивекананда:   "МНЕ НУЖНО         "ПОЧЕМУ ВЕЩЕЙ",    А    "КАК"    Я ОСТАВЛЯЮ ДЛЯ ДЕТЕЙ"  Ромен Роллан.

И еще: "ИСКАТЕЛЬ всегда должен стремиться к такой мудрости, которая, как говорит Плотин:
"...не складывается из теорем, но есть единое целое; она не получается путём сочетания многого в одно, а, наоборот, предлежит, как единое для анализа на многое". Владимир Шмаков.

#p233161,Alex49 написал(а):

"Чтобы опровергнуть это утверждение, надо дать научное определение понятию "жизненная сила"

Дружище Алекс: менее всего я склонен что либо ОПРОВЕРГАТЬ. Но касательно ""термина" "жизненная сила" замечу: любые ПОДОБНЫЕ объекты создают ЭНЕРГЕТИЧЕСКУЮ СЕТЬ (неживых объектов во вселенной НЕТ, будь то кристаллы, камни, металлы, растения - все живое). Это субстанция пронизывающая ВСЕ СУЩЕЕ.

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

+5

12

#p233167,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

касательно ""термина" "жизненная сила"

Глубоко Уважаемый Форумчанин Виктор Анатольевич.

То, что Вы написали, можно назвать натурфилософским или метафизическим определением. Оно пытается описать природу в целом, но делает это без опоры на экспериментальные данные и измеряемые величины. Наука сейчас работает с конкретными полями (электромагнитное, гравитационное), но «жизненная сила» (витализм) была исключена из биологии еще в XIX веке, когда стало понятно, что органическую химию можно синтезировать без участия «божественной искры».

Кстати из-за названия ИИ вместо нейросети, происходят очень большие проблемы в настоящее время в обществе. Это касается и необоснованных страхов обывателей, и распределения ответственности за "советы" нейросетей и т.д. и т.п.

С  уважением, Алекс

Отредактировано Alex49 (10.03.2026 14:40)

+4

13

#p233161,Alex49 написал(а):

ИИ не существует.
Это название незаслуженно получила нейросеть.

Есть и такое определение ИИ

ИИ и нейросеть — в чем разница

1. ИИ (Искусственный интеллект)
ИИ — это широкое понятие, которое охватывает все методы и технологии, позволяющие машинам имитировать человеческий интеллект. Это включает обучение, планирование, распознавание образов, понимание естественного языка и другие функции. ИИ может использовать различные подходы: правила, обучение с учителем и без, эволюционные алгоритмы и нейросети.

2. Нейросеть (нейронная сеть)
Нейросеть — это один из инструментов и методов в области ИИ. Она представляет собой математическую модель, вдохновленную работой мозга человека, состоящую из множества взаимосвязанных «нейронов». Нейросети особенно эффективны для обработки изображений, звука, текста и других данных, где традиционные алгоритмы менее результативны.

3. Ключевые отличия:
- ИИ — более общее понятие, охватывающее множество технологий.
- Нейросеть — конкретный метод внутри ИИ, относящийся к машинному обучению.
- Не все ИИ основаны на нейросетях, однако нейросети — главная современная технология для многих задач ИИ.

Итог:
ИИ — это общий термин для интеллектуальных систем, а нейросеть — один из методов для реализации таких систем

.

Отредактировано ВИКТОР АНАТОЛЬЕВИЧ (15.03.2026 16:26)

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

0

14

#p233366,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

ИИ — это общий термин для интеллектуальных систем, а нейросеть — один из методов для реализации таких систем

Совершенно верно.

Существует множество современных определений что такое "ИИ" и что такое нейросеть.

А что такое Интеллект - определений не меньше.

Но если поднять историю этого вопроса. то можно выяснить - для чего  столько определений было создано.

Ответы можно также поискать и в истории развития нашей цивилизации: история рабовладельческого строя, крепостного крестьянства, "белой расы", арийцев и других - везде присутствует слово интеллект.

Так что всё это далеко не просто.

Но понятие жизненная сила присуще только разуму.

Как по Вашему: есть ли разум у "ИИ"?

Если нет, тогда вопрос исчерпан, это инструмент - сложная (навороченная) нейросеть.

Если есть разум у "ИИ", то можно продолжить обсуждение  8-)

Отредактировано Alex49 (15.03.2026 17:04)

+1

15

#p233369,Alex49 написал(а):

Как по Вашему: есть ли разум у "ИИ"?

Уважаемый Алекс есть ли разум (с эмоциями, радостью, благородством, с любовью к близким и ненавистью к врагам и т.д. и т.п.) у СУПЕР-СВЕРХ компьютера? ...🤣 .... Вот именно - НЕТ

ИИ инструмент "СИСТЕМЫ", ЕЁ "компьютер". А вот что такое "СИСТЕМА": "ТАЙНА СИЯ ВЕЛИКАЯ ЕСТЬ". И у меня нет ни времени, ни желания открывать дискуссию на эту тему. Больше привлекает ГАЛЬВАНОТЕРАПИЯ во всех её ипостасях.

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

+1

16

#p233420,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

Больше привлекает ГАЛЬВАНОТЕРАПИЯ во всех её ипостасях.

Глубокоуважаемый Виктор Анатольевич. Спасибо за Ваш великолепный ответ. Что то в этом духе я и ожидал от Вас.

У нас у каждого есть какие то свои интересы, и когда эти интересы совпадают, - получается неплохая беседа иногда, или обсуждения, или даже исследования.

Если позволите, я бы хотел поглубже изучить вопросы по гальванотерапии.

Посмотрю что есть в открытом доступе, а может у Вас найдутся готовые, интересующие материалы для "ликбеза". Так как я понимаю, что: Вас интересует гальванотерапия не только в строго медицинском аспекте, но и гораздо глубже... Буду рад, если есть такая возможность, познакомиться с этими материалами.

Я предполагаю. что у Вас сейчас уже ночь. Но до завтра не хочу откладывать.

Сейчас посмотрел про гальванотерапию, связанную с эзотерикой.

Вот здесь наши интересы могут совпасть.

Недавние исследования биолога Майкла Левина наводят на очень интересные мысли по поводу так называемой "искры жизни".

Этому явлению я хотел бы посвятить отдельную тему.

С нетерпением жду Ваших сообщений.

С уважением, Алекс.

Отредактировано Alex49 (16.03.2026 16:49)

0

17

#p233425,Alex49 написал(а):

Посмотрю что есть в открытом доступе, а может у Вас найдутся готовые, интересующие материалы для "ликбеза".

Здравствуйте Алекс! Благодарю за добрый отзыв. На VK можно посмотреть мои видео, их там шесть, перезалив с ютуба: https://vkvideo.ru/video-235412859_456239017?t=3m44s

Есть они и на рутубе. И в ТК, но похоже ОН скоро исчезнет.

Отредактировано ВИКТОР АНАТОЛЬЕВИЧ (18.03.2026 16:17)

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

+1

18

#p233503,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

Есть они и на рутубе

Большое спасибо, уже в работе. Всего доброго

+1

19

#p233503,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

Есть они и на рутубе

Здравствуйте Глубокоуважаемый Виктор Анатольевич.
Готов к обсуждениям.
С чего начнём?

0

20

#p233544,Alex49 написал(а):

Здравствуйте Глубокоуважаемый Виктор Анатольевич.
Готов к обсуждениям.
С чего начнём?

Алекс здравствуйте! Поступим немного иначе. Есть у Вас вопросы? ЛЮБЫЕ - задавайте. Можно ПУБЛИЧНО, можно в ЛС. Отвечу обязательно. Возможно и не сразу. К сожалению Очень мало свободного времени. Ухожу с Тг.Канала на МАКС. Завершаю работы с ЖИВОЙ ВОДОЙ. Результаты и рекомендации опубликую в БЛОГЕ. (Плюс к этому - основная работа и постоянно привлекают к ремонту электро-автоматики еще две организации).

Отредактировано ВИКТОР АНАТОЛЬЕВИЧ (21.03.2026 05:13)

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

0

21

#p233576,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

Есть у Вас вопросы?

Здравствуйте Виктор Анатольевич.
Ранее в сообщении Вы указали, что интересуетесь гальванотерапией. В наше время, когда всю, ну или почти всю информацию можно получить с помощью нейросетей, меня заинтересовал вопрос: что бы Вы хотели обсудить по этой теме с человеком?
С уважением, Алекс.

0

22

#p233584,Alex49 написал(а):

что бы Вы хотели обсудить по этой теме с человеком?

Здравствуйте Алекс! По этой теме меня интересует: освоение прибора БИРС  АПК Кабинет Фолля Мастер. Мне интересен опыт тех, кто успешно применяет его в терапии. Пока известен один ГУФ Олег Викторович который работает с прибором,  но не хвалит его. У него есть практический опыт.

Отредактировано ВИКТОР АНАТОЛЬЕВИЧ (23.03.2026 14:38)

Подпись автора

"Практика критерий истины".
Время самый дорогой ресурс.

0

23

#p233672,ВИКТОР АНАТОЛЬЕВИЧ написал(а):

По этой теме

Здравствуйте Виктор Анатольевич.

В прошлые времена я был фанатом элетрорефлексотерапии, но...

Накатани и др.

С глубоким уважением относясь к традиционной китайской медицине и опираясь на её фундаментальные принципы, я не мог не заметить определённые недостатки при проведении электропунктурной диагностики по Накатани.

Йошио Накатани (Yoshio Nakatani) предложил свою теорию Рёдораку (Ryodoraku) в 1950 году. Метод был разработан как способ диагностики, основанный на измерении электрокожной проводимости в биологически активных точках.

Многолетние использования этого метода выявили ряд недостатков.

Это подтверждается и клиническими наблюдениями: совпадения между показателями приборов и состоянием пациента, оцененным по классическим оценкам ТКМ (пульс, язык) в сочетании с правилами концепции У-син (五行), часто оказываются в пределах статистической погрешности. Результаты измерений могут заметно меняться при малейшем изменении условий - влажности кожи, силы нажатия электродом, времени суток.

Основной проблемой применения диагностики по Накатани, на мой взгляд, является гипотеза о постоянном пути прохождения электрического тока по меридиану.
Даже если допустить, что ток идёт именно по меридиану как по отдельной проводящей структуре, он всё равно может проходить не по исследуемому каналу, а по альтернативному пути с меньшим сопротивлением.

Этому способствуют несколько факторов:

Первое: существуют Ло-пункты, которые служат связями между парными меридианами. Если в одном меридиане сопротивление повышено (например, из-за болезни), ток может уйти через Ло-пункт в соседний канал с лучшей проводимостью.

Второе: патологические процессы (воспаление, ишемия, фиброз) способны изменять путь электрического тока, создавая локальные зоны пониженного сопротивления.

Третье: внешние факторы - температура, влажность кожи, сила давления на электроды - также существенно влияют на величину измеряемого тока.

Как следствие, возникают потенциально недостоверные результаты: если ток уходит с исследуемого меридиана, измерение показывает не реальное состояние данного канала, а электрическое сопротивление другого участка цепи.

Результаты современных исследований не подтверждают концепцию Накатани: установлено, что ток следует не по гипотетическим меридианам, а по другим анатомическим структурам - например, по мышечным фасциям, кровеносным или лимфатическим сосудам.

Таким образом, можно предположить, что данный метод не позволяет с достоверной точностью определить путь прохождения тока, поскольку измеряется только общая проводимость (электрическое сопротивление) между двумя электродами.

И в то же время действительно нужна простая методика определения достоверного уровня энергии в меридианах, которая могла бы сравниться например с проведением ЭКГ или ЭЭГ. Это нужно прежде всего для того, чтобы видеть реальные, объективные результаты от проведённого лечения, и своевременно их корректировать при необходимости.

В данный момент, как раз и занимаюсь разработкой возможных методов рефлексодиагностики, которые позволили бы в полной мере использовать древнюю, прекрасную школу лечения людей, с помощью ТКМ, придуманную китайскими мудрецами.

Пока у ГРВ, которой занимается ГУФ Викторович, конкурентов нет.

Отредактировано Alex49 (23.03.2026 15:54)

+1


Вы здесь » Биорезонансные технологии » Всякая всячина » Нейросети: возможности и ограничения