Для решения уравнения 0.5lg(2x-1) + lg(корень из x-9) = 1, давайте разберем его шаг за шагом.
- Перепишем уравнение. У нас есть два логарифма. Мы можем воспользоваться свойством логарифмов, которое гласит, что a * lg(b) = lg(b^a). Применим это свойство к первому логарифму:
- 0.5lg(2x-1) = lg((2x-1)^(0.5)) = lg(корень из (2x-1)).
- Теперь упростим уравнение:
- lg(корень из (2x-1)) + lg(корень из (x-9)) = 1.
- Используем свойство логарифмов: lg(a) + lg(b) = lg(a*b). Таким образом, мы можем объединить логарифмы:
- lg(корень из (2x-1) * корень из (x-9)) = 1.
- Сделаем обратное преобразование: если lg(a) = 1, то a = 10. Следовательно:
- корень из (2x-1) * корень из (x-9) = 10.
- Упростим это уравнение: умножим обе стороны на 10:
- корень из ((2x-1)(x-9)) = 10.
- Теперь возведем обе стороны в квадрат:
- Раскроем скобки:
- 2x^2 - 18x - x + 9 = 100.
- 2x^2 - 19x + 9 - 100 = 0.
- 2x^2 - 19x - 91 = 0.
- Теперь решим квадратное уравнение: воспользуемся формулой дискриминанта D = b^2 - 4ac:
- a = 2, b = -19, c = -91.
- D = (-19)^2 - 4 * 2 * (-91) = 361 + 728 = 1089.
- Находим корни уравнения: по формуле x = (-b ± √D) / (2a):
- x1 = (19 + √1089) / (2 * 2) = (19 + 33) / 4 = 13.
- x2 = (19 - √1089) / (2 * 2) = (19 - 33) / 4 = -3.5.
- Проверим, какие из корней подходят: подставим x1 и x2 в исходное уравнение:
- Для x1 = 13: 2*13 - 1 = 25 > 0 и корень из (13 - 9) = корень из 4 = 2 > 0, подходит.
- Для x2 = -3.5: 2*(-3.5) - 1 < 0, не подходит.
- Таким образом, единственное решение уравнения: x = 13.
Ответ: x = 13.