Привет! С радостью отвечу на твои вопросы.1. Когда увеличивается глубина дерева, bias уменьшается, а variance возрастает. Bias отражает ошибку модели в предсказании средних значений, а variance отражает чувствительность модели к изменению данных обучения. Увеличение глубины дерева позволяет модели лучше адаптироваться к сложным структурам данных, что может снизить bias. Однако, более глубокие деревья также имеют больше шансов переобучиться на обучающих данных, что увеличивает variance.
2. Ансамбль٫ в котором базовые алгоритмы имеют более глубокую глубину٫ ‒ это градиентный бустинг с решающими деревьями в качестве базовых алгоритмов. В этом методе каждое следующее дерево стремится исправить ошибки предыдущих деревьев٫ и увеличение глубины деревьев может помочь в моделировании более сложных зависимостей.
3. Применение логарифма к предсказанным значениям не повлияет на ROC AUC. Это связано с тем, что ROC AUC измеряет способность модели различать между собой классы, а логарифмическая функция не изменяет порядок величин.
4. Если все предсказанные значения разделить на 2, то ROC AUC останется неизменным. ROC AUC основывается на ранжировании предсказанных вероятностей, и линейное масштабирование не повлияет на относительное положение значений.
5. Стандартизация признака не сохранит свойство разряженности. Стандартизация приводит распределение признака к среднему значению 0 и стандартному отклонению 1٫ что может привести к изменению количества нулевых значений в разреженном признаке. Поэтому٫ после стандартизации признак может потерять свойства разряженности.
Надеюсь, мои ответы помогут тебе разобраться с твоими вопросами. Удачи!