Теорема Римана — это важная теорема в математическом анализе, которая касается интегрируемости функций. Она утверждает, что функция является Римановой интегрируемой на отрезке [a, b], если и только если множество её разрывов на этом отрезке имеет меру ноль.
Теперь давайте рассмотрим доказательство этой теоремы. Мы разобьём его на несколько шагов:
Функция f(x) называется Римановой интегрируемой на отрезке [a, b], если предел сумм Римана существует при бесконечном увеличении числа разбиений отрезка. То есть, для любого ε > 0 существует такое разбиение, что разница между верхней и нижней суммами Римана меньше ε.
Рассмотрим множество разрывов функции f на отрезке [a, b]. Пусть это множество обозначается как D. Если D имеет меру ноль, это значит, что мы можем покрыть D бесконечным числом интервалов, сумма длин которых может быть сколь угодно малой.
Предположим, что D имеет меру ноль. Мы можем разбить отрезок [a, b] на подотрезки, исключая точки из D. Так как в каждой из этих подотрезков функция f будет непрерывной, мы можем показать, что верхняя и нижняя суммы Римана сходятся к одному и тому же пределу. Таким образом, f интегрируема на [a, b].
Теперь предположим, что f интегрируема на [a, b]. Если множество D не имеет меры ноль, то мы можем найти подмножество D, имеющее положительную меру. Это приведет к тому, что верхняя и нижняя суммы Римана не смогут сближаться, что противоречит предположению о интегрируемости функции. Следовательно, множество разрывов D должно иметь меру ноль.
Таким образом, мы доказали, что функция f является Римановой интегрируемой на отрезке [a, b] тогда и только тогда, когда множество её разрывов имеет меру ноль. Это и есть теорема Римана.