نتایج جستجو

پرش به ناوبری پرش به جستجو
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)
  • ...Hebbian Learning) یکی از اصول اساسی یادگیری در علوم اعصاب و شبکه‌های عصبی مصنوعی است. این قانون در سال ۱۹۴۹ توسط [[دونالد هب]] در کتاب "سازمان رفتار" (The O === شبکه‌های عصبی مصنوعی === ...
    ۴ کیلوبایت (۷۹ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۸:۵۰
  • ...ر راس سهمی جستجو می‌شود. این روش فقط به اطلاعات محلی [[نورون مصنوعی |نورون مصنوعی]] که به آن اعمال می‌شود نیاز دارد. مرحله <math>k</math>-ام تقریب برابر است ....edu/user/sef/www/publications/qp-tr.ps یک مطالعه تجربی از سرعت یادگیری در شبکه‌های بازگشت به انتشار]''، سپتامبر ۱۹۸۸ ...
    ۲ کیلوبایت (۶۹ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۶:۰۵
  • ...مصنوعی]] است که از [[مدل سازنده|روش سازنده]] استفاده می‌کند. این شبکه عصبی مصنوعی شامل یک لایه از متغیرهای دیده شده و چندین لایه شامل متغیرهای دیده نشده (مخف ...یق یه عنوان راه‌حلی معرفی شد تا بتواند مشکلاتی را که قبل از آن در شبکه‌های عصبی وجود داشتند (مانند مدت زمان زیاد یادگیری، رسیدن به کمینه‌های محلی به دلیل ا ...
    ۵ کیلوبایت (۱۴۸ واژه) - ۲۲ فوریهٔ ۲۰۲۴، ساعت ۱۲:۰۸
  • ...حوزه‌های مختلفی از جمله علوم شناختی، علوم اعصاب بالینی و مدل‌سازی شبکه‌های عصبی مورد استفاده قرار می‌گیرد. به عنوان مثال: در علوم اعصاب بالینی برای مطالعه اثرات اختلالات عصبی مانند بیماری پارکینسون و اسکیزوفرنی بر تصمیم‌گیری استفاده می‌شود. ...
    ۴ کیلوبایت (۱۳۹ واژه) - ۱ فوریهٔ ۲۰۲۵، ساعت ۰۵:۲۶
  • ...ودی، یک لایه پنهان و یک لایه خروجی. به جز گره‌های ورودی، هر گره یک [[یاخته عصبی|نورون]] است که از یک [[تابع فعال‌سازی]] غیر خطی استفاده می‌کند.MLP از تکنیک ...اتصالات ورودی است. توابع فعال‌سازی جایگزین، از جمله توابع [[یکسوساز (شبکه عصبی)]]<nowiki/> پیشنهاد شده‌است. توابع فعال‌سازی بیشتر تخصصی شامل [[توابع پایه ...
    ۹ کیلوبایت (۱۷۹ واژه) - ۲۴ نوامبر ۲۰۲۴، ساعت ۱۰:۳۳
  • ...است. می توان آن را به عنوان الگوریتم [[پس‌انتشار|پس انتشار]] برای یک شبکه عصبی تک لایه با تابع خطای از دست رفتگی میانگین مربع استخراج کرد. ...ن خطا در خروجی شبکه عصبی از طریق [[گرادیان کاهشی]] مشتق شده است. خطای شبکه عصبی با خروجی های j را می توان به این صورت اندازه گیری کرد: ...
    ۷ کیلوبایت (۴۶۱ واژه) - ۶ ژوئیهٔ ۲۰۲۴، ساعت ۰۳:۵۷
  • ...بع هذلولوی|هذلولی]] به عنوان تابع فعال‌سازی در [[شبکه عصبی مصنوعی|شبکه‌های عصبی]] استفاده می‌شود. منحنی‌های سیگموئید نیز در آمار به عنوان [[تابع توزیع تجمع در [[شبکه عصبی مصنوعی|شبکه های عصبی مصنوعی]]، گاهی اوقات از توابع غیرساده برای افزایش بازدهی استفاده می‌شود که این‌ها ...
    ۸ کیلوبایت (۲۴۷ واژه) - ۱۹ فوریهٔ ۲۰۲۵، ساعت ۲۱:۳۵
  • .../wiki/File:DNC_training_recall_task.gif|بندانگشتی|300x300پیکسل|یک کامپیوتر عصبی دیفرانسیل‌پذیر در حال آموزش برای ذخیره و یادآوری اعداد باینری متراکم. در ای ...وتر عصبی دیفرانسیل‌پذیر''' ( '''DNC''' ) یک معماری [[شبکه عصبی مصنوعی|شبکه عصبی]] تقویت‌شده حافظه (MANN) است که معمولاً (اما نه همیشه) به صورت بازگشتی پیاد ...
    ۱۱ کیلوبایت (۵۱۷ واژه) - ۱۹ آوریل ۲۰۲۴، ساعت ۰۸:۱۲
  • ...لاین‌'''</big>'''( نورون خطی تطبیقی ​​یا عنصر خطی تطبیقی )''' یک شبکه عصبی مصنوعی تک لایه و نام دستگاهی است که این شبکه را پیاده سازی کرده است. شبکه از ممیست آدالاین یک شبکه عصبی تک لایه با چندین گره است که هر گره چندین ورودی را می پذیرد و یک خروجی تولید ...
    ۸ کیلوبایت (۱۸۲ واژه) - ۲۵ ژوئن ۲۰۲۴، ساعت ۰۴:۵۳
  • ...sodi2020"/> در بدترین حالت، این اتفاق ممکن است به‌طور کامل مانع آموزش شبکه عصبی بشود.<ref name="Basodi2020"/> به عنوان مثال، برخی از [[تابع فعالسازی|توابع ...ن راه‌حل‌هایی برای این مشکل سبب رشد چشم‌گیر استفاده [[یادگیری ژرف|شبکه‌های مصنوعی عمیق]] شد. ...
    ۱۲ کیلوبایت (۶۹۸ واژه) - ۲۵ نوامبر ۲۰۲۳، ساعت ۱۲:۰۱
  • ...تر]] Erkki Oja گرفته شده‌است. یک مدل است که نورون‌ها در مغز یا در یک [[هوش مصنوعی]] میزان قدرت پیوندها را چگونه تغییر می‌دهند یا چگونه در طول زمان یادگیری ان [[رده:شبکه‌های عصبی مصنوعی]] ...
    ۳ کیلوبایت (۱۰۳ واژه) - ۱۰ ژوئن ۲۰۲۱، ساعت ۲۲:۵۱
  • ...گذاری اطلاعات توسط دارنده‌ی حساب، بدست می‌آید. این نوع کلاهبرداری توسط هوش مصنوعی و [[یادگیری ماشینی|یادگیری ماشین]] قابل تشخیص و جلوگیری است. ===تشخیص کلاهبرداری کارت اعتباری توسط هوش مصنوعی=== ...
    ۷ کیلوبایت (۱۵۵ واژه) - ۲۰ نوامبر ۲۰۲۳، ساعت ۱۵:۵۲
  • ...ی_ماشین|یادگیری ماشین]]، به خصوص در ایجاد [[شبکه_عصبی_مصنوعی|شبکه‌های عصبی مصنوعی]]، '''میانگین‌گیری گروهی''' به فرآیندی گفته می‌شود که در آن چندین مدل ایجاد ...شبکه‌های تولید شده حذف می‌شوند و فقط یکی باقی می‌ماند، میانگین‌گیری گروهی شبکه‌های کمتر مطلوب را با وزن کمتر <ref name = 'two'> Hashem, S. "Optimal linear com ...
    ۹ کیلوبایت (۳۲۳ واژه) - ۲۷ آوریل ۲۰۲۴، ساعت ۱۳:۵۵
  • '''شبکه عصبی گرافی''' (GNN) یک کلاس از [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] برای پردازش داده‌ها است که می‌تواند به صورت یک [[گراف]] نمایش داده شود.<r ...فورمرها]]، در زمینه [[پردازش زبان‌های طبیعی]]، می‌توانند به‌عنوان شبکه‌های عصبی گرافی دیده شوند که برای گراف کاملی که گره‌های آن‌ها کلمات در یک جمله هستند ...
    ۱۷ کیلوبایت (۷۷۳ واژه) - ۲۶ ژانویهٔ ۲۰۲۵، ساعت ۱۵:۵۶
  • ...'ماشین یادگیری حداکثر''' {{به انگلیسی|Extreme learning machine}} یک [[شبکه عصبی پیشخور]] است که برای [[طبقه‌بندی آماری]] ، [[تحلیل رگرسیون]] ، [[خوشه‌بندی] [[رده:شبکه‌های عصبی مصنوعی]] ...
    ۳ کیلوبایت (۲۶۳ واژه) - ۲۲ اکتبر ۲۰۲۱، ساعت ۲۳:۰۷
  • ...ر|شبکه‌های عصبی پیشخور]] است (روش‌های مشابهی برای آموزش سایر شبکه‌های عصبی مصنوعی به وجود آمده‌است). در این روش با استفاده از قاعده زنجیره‌ای، گرادیان [[تابع ...(محاسبه اثر هر وزن در خروجی هر نمونه) برای شبکه‌های عصبی پیشخور و به خصوص شبکه‌های عمیق بسیار زمان‌بر و در عمل غیرممکن است. با استفاده از روش پس‌انتشار و با ک ...
    ۱۶ کیلوبایت (۱٬۱۳۸ واژه) - ۲۹ نوامبر ۲۰۲۳، ساعت ۱۲:۰۶
  • ...ank Rosenblatt|فرانک روزنبلت]] ابداع شد. می‌توان آن را ساده‌ترین نوع شبکهٔ عصبی‌هایی که در آنها خروجی فقط به سمت جلو حرکت می‌کنند ([[:en:Feed-forward|Feedf ...واقع این الگوریتم جزء اولین [[:en:artificoal neural network|شبکه‌های عصبی مصنوعی]] است که به‌کار گرفته شده‌است. ...
    ۱۳ کیلوبایت (۵۷۲ واژه) - ۱۶ آوریل ۲۰۲۴، ساعت ۰۵:۵۵
  • ...اوقات '''شبکه عصبی دوقلو''' نامیده می‌شود) یک [[شبکه عصبی مصنوعی|شبکه عصبی مصنوعی است]] که از وزن‌های یکسانی استفاده می‌کند در حالی که روی دو بردار ورودی مخت ...ر دوربین و تطبیق اسناد با اسناد نمایه شده‌است. شاید شناخته شده‌ترین کاربرد شبکه‌های دوقلو، [[سیستم تشخیص چهره|تشخیص چهره]] است، که در آن تصاویر شناخته شده از ا ...
    ۱۴ کیلوبایت (۸۷۵ واژه) - ۳ اکتبر ۲۰۲۳، ساعت ۰۹:۰۷
  • {{DISPLAYTITLE:شبکه عصبی باقی‌مانده}} ...تی|نمودار تابع هزینه برای زمان تمرین (training) و زمان تست (test) یک شبکه عصبی مستقیم (بدون لایه پرشی) که نشان‌دهنه این است که هرچه تعداد لایه‌ها افزایش پ ...
    ۱۴ کیلوبایت (۷۵۲ واژه) - ۱۷ فوریهٔ ۲۰۲۴، ساعت ۰۱:۵۳
  • '''محاسبات فرابعدی (HDC)''' رویکردی به محاسبات، به ویژه [[هوش مصنوعی]] است. عملکرد HDC از این رو است که قشر [[مخچه]] بر روی نمایش ‌های داده‌ های ...گی و چرایی تصمیم‌گیری سیستم‌ها را، برخلاف [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] آشکار می‌کند. اشیاء فیزیکی را می‌توان به هایپر بردارها نگاشت کرد تا توسط ...
    ۱۵ کیلوبایت (۲۴۴ واژه) - ۳ دسامبر ۲۰۲۴، ساعت ۰۱:۴۴
نمایش (۲۰تای قبلی | ) (۲۰ | ۵۰ | ۱۰۰ | ۲۵۰ | ۵۰۰)