توزیع برنولی پیوسته
الگو:Probability distribution توزیع برنولی پیوسته[۱][۲][۳] در نظریه احتمالات، آمار و یادگیری ماشین، خانوادهای از توزیعهای احتمال پیوستهاست که توسط پارامتر تعریف میشود. بازه این توزیع است و به این شکل تعریف میشود: الگو:وسطچین
الگو:پایان وسطچین توزیع پیوسته برنولی در یادگیری عمیق و بینایی رایانهای، بهویژه در زمینه رمزگذارهای خودکار متغیر[۴][۵] برای مدلسازی پیکسلهای تصاویر طبیعی مورد استفاده قرار میگیرد. به این ترتیب، یک همتای احتمالی مناسب برای از دست دادن آنتروپی متقاطع باینری که معمولاً مورد استفاده قرار میگیرد، تعریف میکند که اغلب برای پیوسته اعمال میشود. دادههای با ارزش[۶][۷][۸][۹] این عمل به معنای نادیده گرفتن ثابت نرمال کننده توزیع پیوسته برنولی است، زیرا از دست دادن آنتروپی متقاطع باینری تنها یک احتمال لگ واقعی را برای گسسته تعریف میکند. دادههای با ارزش
برنولی پیوسته نیز یک خانواده نمایی از توزیعها را تعریف میکند. نوشتن برای پارامتر طبیعی، چگالی را میتوان به شکل متعارف بازنویسی کرد: .
توزیعهای مرتبط
توزیع برنولی
برنولی پیوسته را میتوان به عنوان نسخه پیوسته توزیع برنولی در نظر گرفت که بر روی مجموعه گسسته و به وسیله تابع چگالی احتمال پایین تعریف میشود: الگو:وسطچین
الگو:پایان وسطچین جایی که یک پارامتر عددی بین ۰ و ۱ است. اعمال همین تابع در بازه پیوسته منجر به ضریبی از تابع چگالی احتمال پیوسته برنولی میشود.
توزیع بتا
توزیع بتا تابع چگالی را پایین را دارد: الگو:وسطچین
الگو:پایان وسطچین که میتوان آن را به این شکل نوشت: الگو:وسطچین
الگو:پایان وسطچین در اینجا پارامترهای عددی مثبت هستند و نشان دهنده یک نقطه دلخواه در داخل سادک میباشد. با تعویض نقش پارامتر و ورودی در این تابع چگالی، عبارت پایین را به دست میآوریم: الگو:وسطچین
الگو:پایان وسطچین با اعمال محدودیت و تغییر متغیر به عبارت پایین خواهیم رسید: الگو:وسطچین
الگو:پایان وسطچین که دقیقاً مطابق با چگالی برنولی پیوستهاست.
توزیع نمایی
توزیع نمایی محدود به بازه ۰ تا ۱ معادل توزیع برنولی پیوسته با پارامتر مناسب است.
توزیع طبقه ای مستمر
تعمیم چند متغیره برنولی پیوسته، پیوسته-دستهای نامیده میشود.[۱۰]
جستارهای وابسته
- توزیع بتا
- توزیع نمایی
- توزیع برنولی
منابع
- ↑ Loaiza-Ganem, G. , & Cunningham, J. P. (2019). The continuous Bernoulli: fixing a pervasive error in variational autoencoders. In Advances in Neural Information Processing Systems (pp. 13266-13276).
- ↑ PyTorch Distributions. https://pytorch.org/docs/stable/distributions.html#continuousbernoulli
- ↑ Tensorflow Probability. https://www.tensorflow.org/probability/api_docs/python/tfp/edward2/ContinuousBernoulli الگو:Webarchive
- ↑ Kingma, D. P. , & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114.
- ↑ Kingma, D. P. , & Welling, M. (2014, April). Stochastic gradient VB and the variational auto-encoder. In Second International Conference on Learning Representations, ICLR (Vol. 19).
- ↑ Larsen, A. B. L. , Sønderby, S. K. , Larochelle, H. , & Winther, O. (2016, June). Autoencoding beyond pixels using a learned similarity metric. In International conference on machine learning (pp. 1558-1566).
- ↑ Jiang, Z. , Zheng, Y. , Tan, H. , Tang, B. , & Zhou, H. (2017, August). Variational deep embedding: an unsupervised and generative approach to clustering. In Proceedings of the 26th International Joint Conference on Artificial Intelligence (pp. 1965-1972).
- ↑ PyTorch VAE tutorial: https://github.com/pytorch/examples/tree/master/vae.
- ↑ Keras VAE tutorial: https://blog.keras.io/building-autoencoders-in-keras.html.
- ↑ Gordon-Rodriguez, E. , Loaiza-Ganem, G. , & Cunningham, J. P. (2020). The continuous categorical: a novel simplex-valued exponential family. In 36th International Conference on Machine Learning, ICML 2020. International Machine Learning Society (IMLS).