نظریه اندازه

نظریه اندازه

اندازه در ریاضیات، به تابعی گفته می‌شود، که یک عدد یا مقدار را (به عنوان مثال اندازه، حجم یا احتمال) به هر زیرمجموعه از یک مجموعه خاص، نسبت می‌دهد. این نظریه به منظور، محاسبه انتگرالها بر روی مجموعه‌ها به جای برروی فاصله‌ها (یا همان بازه‌ها) که در معمول انجام می‌پذیرد، گسترش پیدا کرد و از این رو در آنالیز ریاضی و در نظریه احتمالات، بسیار دارای اهمیت می‌باشد.

نظریه اندازه، قسمت مهمی از آنالیز حقیقی است، به طوری که جبرهای سیگما، قیاس‌ها توابع قیاس‌پذیر و انتگرالها را مورد تحقیق، قرار می‌دهد و در نظریه احتمالات و آمار از اهمیت زیادی برخوردار است.

 

 

 

تعریف:

برطبق تعریف، اندازه u تابعی است (یا به عبارتی نگاشتی است)، که برروی سیگما جبر \Sigma بر مجموعه X، تعریف می‌شود و مقادیر بین [0,\infty[، می‌پذیرد و دارای خصوصیت‌های زیر است:

 


\mu(\varnothing) := 0

 


\mu\left(\bigcup_{i=1}^\infty E_i\right) = \sum_{i=1}^\infty \mu(E_i)

 

در اینجا \varnothing مجموعه تهی و E_1,E_2,E_3\cdots تعداد شمارایی از مجموعه‌هایی در \Sigma هستند، که اشتراک هرکدام از آنها با دیگری تهی است (مجموعه‌ها مجزا هستند). در این حالت به (X,\Sigma,\mu) فضای اندازه‌ای و به اعضای \Sigma، مجموعه‌های اندازه‌پذیر گفته می‌شود.

نویسنده مطلب: Meysam Zarei

Meysam Zarei

پاسخ دهید

هیچ نظری تا کنون برای این مطلب ارسال نشده است، اولین نفر باشید...