Обсуждение:Возможности и ограничения перцептронов

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску


Здесь находятся завершившиеся обсуждения. Просьба не вносить изменений.

Мной была некогда написана статья Перцептрон, при улучшении от хорошей к избранной было решено вынести эту часть в отдельную статью. Сама она далеко не маленькая. Поэтому предлагаю прорецензировать эту статью и порекомендовать номинировать ее в хорошие или сразу в избранные (учитывая, что она как минимум была частью хорошей статьи). Ну и конечно любые ценные замечания, что можно было бы улучшить. S.J. 12:04, 18 ноября 2009 (UTC)[ответить]

Я пока не читал статьи. Только общие замечания.

  • Картинки добавить из основной статьи.
  • Какое-то тяжёлое вводное предложение. Сразу грузить может не надо? Особенно терминами в кавычках.
  • Я думаю, если сделать статью независимой от основной, а именно добавить недостающие определения (базовые), чтобы постоянно не отвлекаться на статью перцептрон будет лучше. Я не знаю как в таком случае введение написать, но начал бы с определения перцептрона. Это идея для дискуссии, а не повод всё переделывать. Я так сам ни разу не писал.
  • Не знаю как вы, но мне читать об ограничениях не нравится. Давайте, сначало возможности вставим, а то нелогично получается. Все минусы в конце.
  • Ну и нет сравнения (как и в избранной статье) с другими моделями нейросетей. Alexander Mayorov 20:00, 20 ноября 2009 (UTC)[ответить]
  • Давайте будем исходить из того, что материал основной статьи прочитан и знаком. Дублировать нет ни малейшего смысла. Сравнение с другими моделями нейросетей - это научная исследовательская работа. Как минимум это не предмет не той не другой статьи. Для этого нужно понимать 2-4 моделей сетей, и представьте какой сложности она будет, если даже заголовок вам показался "тяжелым". Возможно когда-то я попробую написать сравнение, ряда сетей но это уж точно не сейчас. По мелочам поправил. S.J. 21:15, 26 ноября 2009 (UTC)[ответить]

Шапки статей существуют по вполне поддающимся осознанию причинам. Читатель может попасть на статью из поисковика, по ссылке знакомого, по ссылке «Случайная статья» из шаблона навигации. Его не должен встречать амбарный замок и знак «Пшёл читать то-то и то-то, мы тебе тут ничего не обязаны». Зачем выносить что-то в подстатью, если, как я понимаю ваши обиняки, якобы фрагмент темы лишён самостоятельной значимости и его нельзя даже представить в отрыве от содержания основной статьи? Шапка должна ёмко и общедоступно разъяснять, о чём статья, и быть первым самым общим описанием предмета.
— Шапку нужно переписывать, но в ней, раз уж она есть, проблемы с пунктуацией. Причастный оборот после определяемого слова и придаточные предложения с союзными словами типа «который». Автору стоит за этим следить и/или в этом разобраться на будущее.
— Статья лишена нейтральности. С таких позиций мне и основная статья видится не удовлетворяющей своему (её) статусу. Серьёзный ценз наложен на читателя, потому что используется терминология, широкой аудитории не понятная. Статья сейчас однородна, но это не комплимент, потому что от энциклопедической статьи мне логичным кажется ожидать переходов от простого к сложного, от общего к частному. Однородная непонятность статьи от самого начала и на всём протяжении едва ли делает много чести, а не плюются окружающие либо от безразличия, либо от нежелания прослыть невеждами. Продолжая на разные лады пытаться передать своё впечатление от статьи, ещё хотелось бы сравнить её с личным конспектом автора на заданную тему. Опять же по той же причине. Шаг в сторону от знаний автора (в меньшую или в большую) и уже возникают мириады вопросов.
— Стиль статьи псевдонаучен, изобилуют weasel words. Русский язык could use improvement.
«<…> перцептрон основывается на статистике, то есть в весовых коэффициентах накапливается информация о числе образов в которых встречались некоторые фрагменты.» Снова реверанс к тому, что шапка сейчас не выполняет тех задач, которые должна, и ждёт переписывания, но замечание напрашивается и, думаю, даст автору пищу для размышлений. Ура терминологии. Нигде и никто не договаривался, что понимать под термином «весовые коэффициенты», каким они тут боком. «Накапливается информация»? Это значит, наверное, что как в логах антивируса пишутся времена работы сканера и перечисляются проверенные файлы, так и в «весовых коэффициентах»? Логично предположить, что потом можно их историю можно прочитать по накопленной информации. А о какой статистике речь? Наверное, об опросах, которые проводит например ВЦИОМ. «Образы и фрагменты» это, видимо, что-то из формулировок вопросов, которые задавали социологи людям на улице. Здесь разобрались, читаем статью дальше.
«Исследования перцептронов показали, что перцептроны способны обучаться.» Опять вольное обращение с многозначительными терминами, плюс скользкие формулировки. Чьи исследования? Какие исследования? Одна баба сказала или британские учёные в восемнадцатом веке? И так ли уж показали? Может, это они так сказали, но соврали, где источник?
А «способны обучаться» они чему? Ведь нигде не было договорённостей насчёт того, как это понимать. Вот в детском саду ребёнок предоставлен сам себе, он там оказывается способен обучаться. Может, например, научиться шнурки завязывать. Перцептрон может научиться себе шнурки завязывать? Или он как студент химического ВУЗа оказывается способен прочувствовать разницу терминов «гидрирование» и «гидратация» и объяснить её своему другу-гуманитарию? Нигде в статье не очерчено, чем перцептрон занимается, а значит что понимать под его, перцептрона, обучением.
«Справедлива теорема о сходимости перцептрона,[1] согласно которой независимо от начальных значений коэффициентов и порядка показа образцов при обучении, перцептрон за конечное число шагов научится различать два класса объектов, если только существует такая классификация.» Если только существует какая «такая» классификация? 0.о Тут, по-моему, не поймут и технари. Философы скажут, что нельзя войти в одну реку дважды, а следовательно для абсолютно любых двух объектов существует вариант хоть какой-нибудь классификации. Тогда как-то цитируемое лишено энциклопедической ценности, и причина меняется со следствием, ну или обобщение сути помянутой теоремы оказывается неудачным, а виноваты снова проблемы с разграничением дефиниций. Кстати, в статье про теорему сходимости — номера теорем идут подряд такие: 1, 9, 3. >_<
А сноски правила просят ставить до знаков препинания.
«Такой термин предложил ещё Розенблатт [2], но про этот факт почти забыли.» Пробел перед сноской, а это всегда сигнал о небезупречной вычитанности. Вторая часть предложения — особо циничное изнасилование научного энциклопедического стиля. Кто забыл? Он, они, она и я — вообще не знали (а должны?), а вот тот, те и эти и Анонимус — помнят. Что такое «почти забыли»? Те, кто должен помнить, помнят это как «Ну,.. это навание придумал, как же его звали-то… У него ещё фамилия на -блатт, кажется», да? И какая и кому разница, вообще, забыли или нет?
«Со временем вопросом нейронных сетей заинтересовались математики и на основе поиска градиента разработали метод обратного распространения ошибки.» С каким временем? Я понимаю этот оборот как существующее средство изъяснения, но его используют для ориентации событий относительно друг друга. Со временем математики заинтересовались. От какого момента началось время, на протяжении которого математиков перцептрон прельщал и совращал на интерес к себе? Дальше. Кто это за математики. Я вот знаю одного математика, и 99 %, что ему эти перцептроны до лампочки, и 99,95 %, что он не разрабатывал метод обратного распространения ошибок. То есть таковы же вероятности, что в статье — weasel word для ложного впечатления доказательности и авторитетности. Финальные вопросы в том, при чём тут перцептрон и какая вообще разница, что математики заинтересовались сетями и заинтересовались со временем, были ли разработчики на самом деле именно математиками, и не был ли и сам Розенблатт математиком (а то ж это сверхтектонический абзац какая формулировка, выходит).
«Для них это была задача поиска градиента функций многих переменных.» Нет источника. Может быть, для кого-то из них это была задача выживания (ему начальник подразделения НИИ сказал, что застрелит его, если тот к пятнице не выдаст математический аппарат метода).
«Раньше считалось, что вычислительные затраты на поиск градиента (gradH) составляют: , где — функции n переменных , а T — вычислительные затраты на вычисление одного значения функции n переменных . А теперь стало понятно, что достаточно на порядок меньших вычислительных затрат: , где C — константа, не зависящая от размерности n (в большинстве случаев C~3).» Ужасно. «Раньше» это когда? Во времена Леонардо? Демокрита?
«Считалось, что…» кем? На меня не смотрите, я таких глупостей за собой не припомню, то есть уже не всеми считалось, но непонятно кем.
«Вычислительные затраты» это что? Число рублей, которые нужно заплатить налогами за право вычисления? Число калорий, которые сгорят при прикидывании результата в уме? Машинное время, которое нужно суперкомпьютеру, к которому очередь на обсчёт квантовой химии, на выдачу результата?
«А теперь стало понятно…» это когда «теперь» и кому «понятно»?
«C~3» это торговая марка размерностей? Или эта запись, по мнению автора, даёт какие-то данные о значении константы? Как это читается? «Це пропорциональна трём»? Даже я не догадываюсь.
А в части «где — функции n переменных » — это так хотели сказать, что в записи литерой H обозначается функция от набора переменных числом n штук, так? Или там пропущено что-то?
«Таким образом, исследование искусственных нейронных сетей, побудило обратится к работам Лагранжа и взглянуть на них с другой точки зрения.[3]» К чему относится «Таким образом»? «Исследование искусственных нейронных сетей» какое? «Побудило» кого? При чём тут Лагранж? Какая точка зрения была раньше и стала сейчас? Если ответы на эти вопросы не важны, то процитированному не место в статье в таком виде. Если важны, то этих ответов в статье не видно.
«Метод обратного распространения ошибки оказывается весьма частным случаем общего принципа двойственности.» Вы и здесь кучу народу потеряете. Что за общий принцип двойственности? С какой стати метод «оказывается»? Может, неудачно захотели написать, что метод обратного распространения ошибки оказывается частным случаем общего этого какого-то принципа, который в работах Лагранжа был? Если да, то, повторюсь, неудачно. Что такое «весьма частный случай». Есть «чуть-чуть частные случаи»? «На миллипуську частный случай»? Критерии «весьмовости» частных случаев существуют? Зачем здесь вообще слово «весьма»?
«После выхода книги Румельхарта с 1986 года, многослойный перцептрон используется уже в другом смысле, его называют <…>» «Пацан, ты с какого района? — С 1905-го года! — А я с 1986-го!» Русский язык, однако. Или там уточнение в отсутствие запятой: «После выхода, с такого-то года…». Такая чёткая хронология потребует нереально авторитетного источника, который зафиксировал сдвиг по фазе в лексиконе всего сонма людей, имеющих дело с перцептронами
Книга Румельхарта какая? Или это как имя собственное само по себе, а ля «Книга Памяти»?
«<…> многослойный перцептрон используется уже в другом смысле, его называют многослойными именно потому, что там один алгоритм обратного распространения ошибки учит все слои, а не потому, что там несколько слоёв (так как, несколько слоёв было и у Розенблатта).» Ну русский язык в конвульсиях. В-нулевых, «его называют многослойными». Не согласованы числа. Многослойный перцептрон используется в другом смысле видимо в таком, что раньше ему образы показывали, а теперь его выключили из розетки и забивают им гвозди. (Сравните с «словосочетание „многослойный перцептрон“ используется…», например)
Что за «там-там» в научном стиле? Где там? Там, где некие они берут и перцептрона называют многослойными, может быть. А, кстати, кто эти «они», которые «называют»?
«Но перцептрон Розенблатта и многослойный перцептрон (обучаемый по алгоритму обратного распространения ошибки) достаточно разные модели нейросетей <…>». Плохой перевод с английского. Сказуемое «to be» (здесь в оригинале было «are», как пить дать) в английском может не нести большого количества смысла исключительно на самом себе, но оно нужно для структурирования предложения. Здесь в русском нет ни хотя бы тире, ни просящихся слов «представляют собой».
Критерии «достаточности» разности моделей нейросетей сможете дать? Потому что по мне, вот, допустим, недостаточно разные эти модели. Кто за всех решил, что разные они достаточно? (см снова AWW).
«<…> разные модели нейросетей, которые специфичны для разного рода задач.» Это продолжение корявого перевода, я так догадываюсь. Оригинал имел в виду, что разные модели эти предназначены для разных задач. В переводе получили, что разные модели эти в условиях разных задач имеют некие присущие им характеристики. Talk about stating the obvious.
«Различие задач хорошо видно с математической точки зрения.» Я число пи округляю до семи, а константу g до восемнадцати метров в секунду за секунду. Мне с математической точки зрения всё будет видно плохо. Почему статья за меня решает, хорошо ли видно? (это тоже AWW)
«Требование безошибочности разделяющего правила на обучающей выборке в случае с перцептроном Розенблатта принципиально отличается от критериев оптимальности в случае многослойного перцептрона.» Не пойму, потому что мы не договаривались, что иль кто есть «разделяющее правило». И для чего там «критерии оптимальности» многослойному перцептрону. Продолжая начатую выше тему, могу попытаться вообразить, что речь о выборе оптимального угла перцептрона, которым надо бить по гвоздю, чтобы забить оный гвоздь в соответствии с техзаданием.
«Если взять за основу при построении гиперплоскости, разделяющей классы, отсутствие ошибок на обучающей выборке, то чтобы удовлетворить этому условию, придётся решать систему линейных неравенств.[5]» Расхлябанность. Мы берём что-то за основу, а потом говорим о каком-то этом условии. «Основа» и «условие» это даже не рифмующиеся слова. Перед «чтобы» нужна запятая, по-моему. Неравенства можно вики-ссылкой сделать, думаю.
«Но уже с 2000 года начинают обращать внимание именно на оригинальную версию перцептрона, так как обучение многослойного перцептрона с помощью метода обратного распространения ошибки выявило существенные ограничения на скорость обучения.» Некритично, но, насколько я помню, согласно гайдлайнам действительную историю пишут в прошедшем времени, а вымышленную в настоящем.
Почему «но»? Почему «уже»? Кто «начинает»? Кто выявил ошибки обучением? Кто решил, что ограничения существенны? Где АИ?
« А скорость обучения стало одним из главных критериев пригодности нейронной сети, наравне и даже более важным, чем критерий точности сделанных прогнозов.» «Скорость стало». Пригодности к чему и критерием для кого? Какой сети? Конкретной? Так наравне или более важным? Где АИ?
«Поэтому далее будет показано как с помощью перцептрона можно построить систему с достаточно точным прогнозом, и отдельно какими модификациями можно увеличить скорость обучения перцептрона.» Рассказ сказок с проблемами в пунктуации. Отвратительный и нежелательнейший приём ссылаться на что-то внутри статьи таким образом, как «дальше»-«выше»-«в таком-то разделе»-«в прошлом абзаце». Сейчас другой человек пойдёт и перенесёт абзац, или внесёт в него структурную перепланировку, разрушив ваши желания что-то доказать по образу теоремы на лекции или анонсировать а ля «не переключайте канал!».
«Здесь будет показаны только основы практического применения перцептрона, на двух различных задачах. Задача прогнозирования требует высокой точности, а задача управления агентами высокой скорости обучения. Поэтому рассматривая эти задачи можно полноценно ознакомится с возможностями перцептрона, но этим далеко не исчерпываются варианты использования перцептрона.» Та же фигняистория. Оригинальное исследование это назыается. Даже если автор может обосновать и исправить стиль изложения (тут проблемы со всем, что уже поминалось: ни критериев, ни АИ, ни энциклопедического подхода, ни грамотного русского языка) в этой части, это сейчас по форме жестокий ОРИСС, весь раздел, если не больше.
«Поэтому может применяться комбинация конфигурационного и позиционного кодирования, как это было сделано в работе С. Яковлева «Система распознавания движущихся объектов на базе искусственных нейронных сетей»[8].» и далее до конца абзаца Апогей ОРИССа, оригинальное исследование рафинированное, дистиллированное, перекристаллизованное и хроматографированное. Источники информации в статьях Википедии должны приводиться в подтверждение фактам, излагающимся в статье. Здесь же источником оформлена ссылка на статью, а автор неправомочно (если он рассчитывает соблюдать консенсусные правила) начинает приводить свой анализ и своё видение статьи. Автор Википедии, как пользователь, априори не является экспертом, чьему мнению место в пространстве статей Википедии. Просто потому, что никто не обязан доверять декларируемым наличию экспертизы и добрых намерений. Требуется авторитетный источник на всё нетривиальное или уходить от формулировок, не имеющих подтверждений.
«Конечно, в искусственном интеллекте с точки зрения коннективизма интересны только обучающиеся агенты, которые способны обучаться и развиваться в процессе взаимодействия с окружающей средой.» Такое слово «конечно» в научном энциклопедическом стиле — мусор. В статье идёт ОРИСС и нутром это, должно быть, чувствуется, если лезут такие слова, мнимо подбавляющие веса излагаемому.
— Походу сообразующиеся идеи: статьи Рекуррентный перцептрон Yak-1 и Рефрактерный перцептрон Yak-2 не демонстрируют значимости своих предметов и должны быть либо влиты в Перцептрон, либо как минимум слиты в статью с рабочим названием Частные варианты перцептронов.
— Категория Категория:Перцептрон должна быть переименована в Категория:Перцептроны.
«Плодотворной идеей здесь может быть моделирование рефрактерности, что например <…>» А может и не быть. Отличная научная статья, да.
«Задача теоретической модели мозга (которой является перцептрон) <…>» Видимо, тут хотят сказать, что перцептрон (который может быть по определению и физически существующим устройством, и математической моделью) это общепризнанная теоретическая модель, других быть и не может, это вообще тождественные понятия. По-моему, очень зря так хотят сказать. Повторяюсь, что тут всё ещё идут ОРИССы косяками.
«{{Определение-2|Возможность [[Классификация|классификации]]|Сеть с одним скрытым слоем, содержащим H нейронов со ступенчатой функцией активации, способна осуществить произвольную классификацию Hd точек d-мерного пространства (то есть классифицировать Hd примеров). Одного скрытого слоя нейронов с сигмоидной функцией активации достаточно для аппроксимации любой границы между классами со сколь угодно высокой точностью.[10]}}» Автор сам читал написанное хоть?.. >_<
— Отдельно по поводу определений этих. Их никто не поймёт, потому что сленг. Разжевать можно? Сформулировать смысл содержания понятным образом.
«Единственное, для чего имеет смысл усложять функцию активации по сравнению с пороговой (которая является самой наипростейшей), — это возможность интерпретации выходов нейронов как вероятностей принадлежности к соответствующему классу, что в свою очередь может повлиять на качество прогноза.» ВП:ПРОВ мы потеряли давно, прощание с усопшей уже состоялось, а урна с прахом замурована в колумбарии. Поэтому отмечу слово «усложять».
«Но это имеет проблемы <…> при сходимости <…> и существенно понижает скорость обучения <…>» Использовать заменяющее «это» как подлежащее в предложении, открывающем новый абзац, это американские горки для читательского мозга. Какое «это», откуда? «Иметь проблемы при %неком процессе%» это новое слово во фразопостроении.
«Первые успехи исследований перцептронов и других нейросетей вызвал взрыв активности и энтузиазма.» Предложение хитроумное, имеет право на существование, даже красивое, хоть и художественноватое для научного энциклопедического стиля. Но у меня абсолютная уверенность в том, что автор пытался выразить мысль, в которой причина и следствие относительно ситуации, проистекающей из данного предложения, поменялись бы местами. :))
«В течение некоторого времени казалось, что ключ к интеллекту найден, и воспроизведение человеческого мозга является лишь вопросом конструирования достаточно большой сети.» Опять продолжаются ОРИССы. Автор пишет собственного сочинения летопись, а не вики-статью.
«Но эта иллюзия вскоре рассеялась.» У читателей текут скупые слёзы. Так поэтично.
«<…> — но с точки зрения технического их приложения, в противовес построению моделей мозга.» Про ОРИССы уже не говорю. Поддакну, де, в противовес построению моделей мозга из папье-маше, например.
«К сожалению, некоторые неточности <…>» В зале проносится трудноскрываемый вздох разочарования. Сожалеют все.
«Но такая классификация проблематична, так как не позволяет говорить об особенностях определённого вида нейросетей.» Проблематичной может быть классификация как процесс. В то время как об особенностях нейросетей можно говорить, только исходя из классификации как результата, то есть исходя из разбросанности по классам. Нельзя два понятия слить в одно. Здесь в статье определённая речевая ошибка. А если бы не предшествующее процитированному предложение, то процитированное ещё бы и заиграло переливами смыслов, потому что не было бы понятно вообще, где которая из «классификаций» имелась в виду.
«Серьёзный математический анализ перцептронов был проведён М. Минским и С. Пейпертом (подробнее см. ниже)» Ещё раз, это отстойное структурирование информации. Продолжающиеся ОРИССы и смелые выражения сами собой разумеются.
— Just in case. «Уоссермен» это не Вассерман? Не обязательно Анатолий, просто мало ли…
«Но к сожалению, это сказалось не только на терминологии, но и неверном представлении о перцептроне как простейшем пороговом элементе.» Речевая ошибка. Тут и не вывести из контекста, что за смысл автор хотел передать.
«Действительно, Минским, после серьёзных экспериментов с перцептроном и его всестороннего анализа, была предпринята критика модели.» За каким шкафом тут сдалось слово «Действительно»? Если даже забыть о его weasel-ьности (концентрация weasel-ов в этом разделе безудержно, лавинообразно растёт), начинать новый раздел с такого захода это круто. Это подтверждение чего-то, или ответ кому-то? Или что? Вики-ссылка на слово «критика» тоже забавна.
«Минский описывал специальные задачи такие как «чётность»[12] и «один в блоке»,[12] которые показывают ограничения перцептрона в том, что он не может распознавать инвариантные входные данные (изображения) бесконечного порядка.» В статье инвариант не видно раздела «Инварианты в живописи». В английской интервики тоже ничего похожего. А чтобы можно было ну хоть как-то попытаться уяснить смысл фразы, надо понять, что такое «инвариантные изображения бесконечного порядка». Может, тут снова ляп какой-то? Фразу вообще никто не поймёт, а это плохо.
«Способности ИНС, и в частности перцептрона, не столь велики, как это рекламируется.» Это уже откровенная халтура пошла. Читать противно. Стиль сдох. Пошла травля баек и публицистика. Кто-то хочет поспорить? Добавьте тогда авторитетный источник, который фактически установил (оценки не устраивают даже из АИ! здесь это преподнесено как факт, так что и подтверждать надо соответствующе) соотношение величин действительных способностей ИНС и описаний этих способностей ИНС во всех существующих рекламах.
«Минский пытался показать, что перцептрон не имеет в этом отношении серьёзных преимуществ по сравнению с другими статистическими методами прогноза [18] .» Это Минский сам так в статье-из-рефа написал: «Я пытаюсь показать то-то и то-то», — я так понимаю?
«Минский показал, что задачи, которые в принципе могут быть решены перцептроном, могут потребовать нереально больших времён [19] или нереально большой памяти [20] .» Пробелы (в вики-разметке это переводы каретки наверняка) косяками вокруг рефов. «Времён» это о чём речь? Да ещё и больших. Напрасно предполагается какая-то очевидность, контекст повода не даёт.
«Например, для различения некоторых классов объектов коэффициенты части ассоциативных элементов должны быть столь велики, что для хранения их в вычислительной машине потребовался бы больший объём памяти, чем для того, чтобы просто запомнить все конкретные объекты этих двух классов.[21]» Только это никак не говорит о реальности или нереальности величины объёма памяти.
Вердикт — очень плохо всё. -_- Легат Ская 18:33, 15 января 2010 (UTC)[ответить]

Знаете, такой глупости мне давно не писали. Поэтому даже не знаю с чего вам ответить. Это все равно, что мартышка и очки, да еще рецензировать пытается. Я даже подумывал, удалить как вандализм. Есть конечно, немного здравых мыслей, но чтобы их отделить от популизма и голых эмоциональных выпадов - это надо еще постараться. Будет время, потренируюсь - но в серьез воспринимать вашу писанину - даже не подумаю. S.J. 20:05, 15 января 2010 (UTC)[ответить]
Легат Ская 00:02, 16 января 2010 (UTC)[ответить]

О чём статья[править код]

Значит последний раз про пафос, что статья должна быть понятна, не зная что такое перцептрон. Название читать не пробовали ? Возможности и ограничения ХХХ. Ни о чем не говорит ? Как можно читать о возможностях и ограничениях лошади, не зная и никогда не видя лошадь, да еще обижаться, когда тебя отсылают вначале прочесть и посмотреть что такое лошадь ?? Разделили статью по одному лишь принципу - она занимала очень много места. И чтобы облегчить жизнь тем, кто первый раз знакомится с перцептроном, детали возможносте и ограничений были выделены в отдельную специализированную статью. Чтобы еще было более понятно я поставил на странице обсуждения соответствующих шаблон ! На этом больше я подобные аргументы вторично не обсуждаю и просто игнорирую, за абсурдностью. S.J. 20:33, 15 января 2010 (UTC)[ответить]

Прочие[править код]

За сим, откланиваюсь ! Т.к. далее просто лепет младенца, который и азбуки не знает, а пытается спорить с учеными. Хотите обучаться милости прошу в Викиверситет на v:Факультет_искусственного_интеллекта, там Вас попробую обучить, здесь же ликбезом заниматься, для не благодарных слушателей, которые даже не хотят понять что такое весовые коэффициенты - увольте мне просто жалко времени. Статью же я буду обсуждать со знающими людьми, а не профанами ! S.J. 20:39, 15 января 2010 (UTC)[ответить]

Стиль написания[править код]

Очень много вашей критики якобы по стилю, и передернуто так что до ведено до абсурда. Что на это можно ответить ? Не задавайте вопросы ответы на которые вам знать нет необходимости. Подавляющая часть совершенно не важна в контексте статьи, а то что сказано дает представление. Такое впечатление, что вы не про перцептрон захотели узнать, а про историю математиков или хронологию в последовательном изложении. Абстракция - неизвестно для вас слово, научитесь концентрироваться на предмете изложения, и попробуйте понять что читаете. Стилевую же критику для литературных (а не научных) текстов оставьте при себе. S.J. 21:46, 15 января 2010 (UTC)[ответить]

Указания на статьи С. Яковлева[править код]

— «Поэтому может применяться комбинация конфигурационного и позиционного кодирования, как это было сделано в работе С. Яковлева «Система распознавания движущихся объектов на базе искусственных нейронных сетей»[8].» и далее до конца абзаца Апогей ОРИССа, оригинальное исследование рафинированное, дистиллированное, перекристаллизованное и хроматографированное. Источники информации в статьях Википедии должны приводиться в подтверждение фактам, излагающимся в статье. Здесь же источником оформлена ссылка на статью, а автор неправомочно (если он рассчитывает соблюдать консенсусные правила) начинает приводить свой анализ и своё видение статьи. Автор Википедии, как пользователь, априори не является экспертом, чьему мнению место в пространстве статей Википедии. Просто потому, что никто не обязан доверять декларируемым наличию экспертизы и добрых намерений. Требуется авторитетный источник на всё нетривиальное или уходить от формулировок, не имеющих подтверждений.

Отвечу еще на этот выпад. Да, это моя работа, она опубликована, и прошла рецензирование не так специалистов как Вы. Могу ли я на нее ссылаться, в статье Википедии которая посвещенна соответствующей теме ? Да могу ! А сказано всего лишь то, что сделано в статье, и используется как один из примеров применения комбинация конфигурационного и позиционного кодирования - если для вас эти слова хоть что-то значат. Извините все, я устал просвещать бездарей ... S.J. 22:09, 15 января 2010 (UTC)[ответить]


Закрывается за исчерпанием. 213.171.63.227 07:47, 17 февраля 2010 (UTC)[ответить]