پرونده:BERT masked language modelling task.png

از testwiki
پرش به ناوبری پرش به جستجو
پروندهٔ اصلی (۱٬۴۲۶ × ۷۰۸ پیکسل، اندازهٔ پرونده: ۴۰ کیلوبایت، نوع MIME پرونده: image/png)

این پرونده از ویکی‌انبار است و ممکن است توسط پروژه‌های دیگر هم استفاده شده باشد. توضیحات موجود در صفحهٔ توضیحات پرونده در آنجا، در زیر نشان داده شده است.

خلاصه

توضیح
English: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
تاریخ
منبع https://dvgodoy.github.io/dl-visuals/BERT/
پدیدآور Daniel Voigt Godoy

اجازه‌نامه

w:fa:کرییتیو کامنز
انتساب
این پرونده تحت مجوز Creative Commons Attribution 4.0 International مجوز داده شده است.
شما اجازه دارید:
  • برای به اشتراک گذاشتن – برای کپی، توزیع و انتقال اثر
  • تلفیق کردن – برای انطباق اثر
تحت شرایط زیر:
  • انتساب – شما باید اعتبار مربوطه را به دست آورید، پیوندی به مجوز ارائه دهید و نشان دهید که آیا تغییرات ایجاد شده‌اند یا خیر. شما ممکن است این کار را به هر روش منطقی انجام دهید، اما نه به هر شیوه‌ای که پیشنهاد می‌کند که مجوزدهنده از شما یا استفاده‌تان حمایت کند.

عنوان

شرحی یک‌خطی از محتوای این فایل اضافه کنید
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

آیتم‌هایی که در این پرونده نمایش داده شده‌اند

توصیف‌ها

۴۰٬۹۳۳ بایت

۷۰۸ پیکسل

۱٬۴۲۶ پیکسل

checksum انگلیسی

c13a0ad135a1d2590146448757a15792891df7c0

تاریخچهٔ پرونده

روی تاریخ/زمان‌ها کلیک کنید تا نسخهٔ مربوط به آن هنگام را ببینید.

تاریخ/زمانبندانگشتیابعادکاربرتوضیح
کنونی۵ اوت ۲۰۲۴، ساعت ۰۳:۵۱تصویر بندانگشتی از نسخهٔ مورخ ۵ اوت ۲۰۲۴، ساعت ۰۳:۵۱۱٬۴۲۶ در ۷۰۸ (۴۰ کیلوبایت)wikimediacommons>Cosmia NebulaUploaded a work by Daniel Voigt Godoy from https://dvgodoy.github.io/dl-visuals/BERT/ with UploadWizard

صفحهٔ زیر از این تصویر استفاده می‌کند: