Применение причинного вывода в интернет-индустрии в основном основано на Uplift. модель для прогнозирования дополнительного дохода и повышения рентабельности инвестиций。UpliftМодель помогает продавцам рассчитать чувствительность крауд-маркетинга,Управляйте бюджетом моделирования доходов и формулируйте стратегию доставки,Максимизируйте эффективность маркетинга и продвижения. В то же время, как измерить и спрогнозировать «постепенное улучшение», вызванное маркетинговым вмешательством?,Вместо того, чтобы тратить маркетинговый бюджет на тех людей, которые «конвертируются»,Это становится самой важной задачей для интеллектуальных маркетинговых алгоритмов.
Например🌰: Реклама размещается как на пользователе А, так и на пользователе Б. После размещения рекламы CVR (объем конверсий/объем кликов) пользователя А составляет 5%, а CVR пользователя Б – 4%. Тогда рекламу следует разместить на пользователе А. ? Это верно только на основании результатов после рекламы. Но если CVR пользователя A составляет 4%, а CVR пользователя B составляет 2% до размещения рекламы, то мы считаем, что доход, приносимый самой рекламой, больше для B, чем для A, поэтому реклама передается пользователю. Б.
Функция модели Uplift — расчет чувствительности крауд-маркетинга. В частности, она рассчитывает прибыль каждого пользователя, а затем определяет, размещать ли рекламу на пользователя, исходя из бюджета и других ограничений, установленных рекламодателем.
При моделировании в основном ориентируйтесь на толпу убеждаемых и избегайте толпы спящих собак. Если вы используете модель отклика, вам будет сложно провести различие между этими группами людей, потому что модель только предсказывает, стоит ли покупать, а доля убеждаемых пользователей, которые могут совершить конверсию, довольно мала, поэтому она не является целью маркетинга.
Модель Uplift используется для прогнозирования/оценки причинного воздействия определенного вмешательства на индивидуальное состояние/поведение. Его можно формализовать в виде следующего уравнения: τ i = p ( Y i ∣ X i , T i = 1 ) − p ( Y i ∣ X i , T i = 0 ) (1) \tau_i=p(Y_i|X_i, T_i=1)-p(Y_i|X_i, T_i=0)\tag1 τi=p(Yi∣Xi,Ti=1)−p(Yi∣Xi,Ti=0)(1) в, Y i Y_i Yi представляет собой потенциальные результаты (например, коэффициент конверсии, рейтинг кликов и т. д.), X i X_i Си представляет характеристики пользователя, T i = 1 T_i=1 Ti=1 означает вмешательство, T i = 0 T_i=0 Ti=0 означает отсутствие вмешательства,В рекламном маркетинге приложение можно наглядно представить как поведение пользователя после рекламы.,Пользователь совершает какое-то действие(Нажмите или купите)повышенная вероятность。
Обратите внимание, что для пользователя мы можем только вмешиваться или не вмешиваться, то есть мы можем наблюдать только T 1 = 1 T_1=1 T1=1 или T 1 = 0 T_1=0 T1=0, поэтому для человека выигрыш τ i \tau_i τi ненаблюдаем.
Таким образом, мы можем рассмотреть общую (подгруппу населения),Прямо сейчасИспользуйте причинный эффект группы людей, чтобы представить причинный эффект одного человека.),Эквивалентные уравнения (средняя стоимость лечения, среднее значение ATE): A T E = E ( Y я ( 1 ) - Y я ( 0 ) ) = E ( Y я ( 1 ) ) - E ( Y я ( 0 ) ) (2) . И=E(Y_i(1)-Y_i(0))=E(Y_i(1))-E(Y_i(0))\tag2 И=E(Это (1)-Это (0))=E (Да (1))−E(Да (0))(2)
Т i ∈ { 0 , 1 } T_i\in\{0, 1\} Tiε{ 0,1} указывает, следует ли вмешаться, тогда Y i o b s = T i Y i ( 1 ) + ( 1 − T i ) Y i ( 0 ) (3) Y_i^{obs}=T_iY_i(1)+(1 -T_i )Y_i(0)\tag3 Yiobs=TiYi(1)+(1−Ti)Yi(0)(3)
здесьдетали, которые при разумных предположениях,Прямо сейчас在一个确定的特征 X i X_i Теперь пользователи случайным образом распределяются в экспериментальную группу и контрольную группу, затем ( 2 ) (2) (2) можно преобразовать в A T E = E ( Y i ∣ T i = 1 ) − E ( Y i ∣ T i = 0 ) = E ( Y i o b s ∣ X i = x , T i = 1 ) − E ( Y i o b s ∣ X i = x , T i = 0 ) (4) ATE=E(Y_i|T_i=1)-E(Y_i|T_i=0)=E(Y_i^{obs}|X_i=x,T_i=1)-E(Y_i^{obs}|X_i=x,T_i=0)\tag4 ATE=E(Yi∣Ti=1)−E(Yi∣Ti=0)=E(Yiobs∣Xi=x,Ti=1)−E(Yiobs∣Xi=x,Ti=0)(4)
Это позволяет вам разработать рандомизированный A/B-тест.
Намерение совершить покупку, увеличенное за счет субсидирования, τ ( X i ) = P ( Y i = 1 ∣ X i , T i = 1 ) − P ( Y i = 1 ∣ X i , T i = 0 ) \tau(X_i)=P(Y_i=1|X_i,T_i=1)-P(Y_i=1|X_i,T_i=0) τ(Xi)=P(Yi=1∣Xi,Ti=1)−P(Yi=1∣Xi,Ti=0), так как мы не можем получить τ i \tau_i τi,такНевозможно получить настоящую метку, что вызывает надзоризучатьНевозможно продолжить。в отсутствие реального τ i \tau_i В случае τi обычно существует три основные категории методов оценки. τ i \tau_i τi:The Class Transformation Method、Meta-Learning Method、Tree-Based Method。
Этот метод следует отнести к метаобучению. Method,здесь Указано отдельно, чтобы избежать путаницы.。Этот метод подходит дляЛечение и результат представляют собой классификации, состоящие из двух категорий.ситуация,проходитьПреобразование цели прогнозирования в один класс,Это позволяет прогнозировать с помощью одной модели.
Сначала определите новые переменные Z я знак равно Y я о б s Т я + ( 1 - Y я о б s ) ( 1 - Т я ) (5) Z_ {i}= Y_ {i}^ {o b s} T_ {i}+\left( 1-Y_{i}^{о б s}\right)\left(1-T_{i}\right)\tag5 Zi=YiobsTi+(1−Yiobs)(1−Ti)(5) Зависит от Поскольку Лечение и Результат относятся к категории II, то Y i o b s ∈ { 0 , 1 } Y_i^{o b s}\in\{0, 1\} Yiobsε{ 0,1}, T i ∈ { 0 , 1 } T_i\in\{0, 1\} Tiε{ 0,1}, поэтому, когда Y i o b s = T i = 0 Y_i^{o b s}=T_i=0 Yiobs=Ti=0 или Y i o b s = T i = 1 Y_i^{ob s}=T_i=1 Yiobs= Когда Ti=1, Z i = 1 Z_i=1 Zi=1。
Это верно Поднятие τ ( X i ) \tau(X_i) τ(Xi) имеет τ ( X i ) = 2 P ( Z i = 1 ∣ X i ) − 1 (6) \ tau(X_i)=2 P \ влево(Z_{i}=1 \mid X_{i}\right)-1\tag6 τ(Xi)=2P(Zi=1∣Xi)−1(6)
Источник: Зависит от Z я Z_i Определение Zi можно узнать п ( Z я знак равно 1 ∣ Икс я ) знак равно п ( Y я знак равно 1 , Т я знак равно 1 ∣ Икс я ) + п ( Y я знак равно 0 , Т я знак равно 0 ∣ Икс я ) P(Z_i=1|X_i)=P(Y_i=1,T_i=1|X_i)+P(Y_i=0,T_i=0|X_i) P(Zi=1∣Xi)=P(Yi=1,Ti=1∣Xi)+P(Yi=0,Ti=0∣Xi), и согласно гипотезе: P ( T я знак равно 1 ∣ Икс я ) знак равно п ( Т я знак равно 0 ∣ Икс я ) знак равно 1 2 P(T_i=1|X_i)=P(T_i=0|X_i)=\frac{1}{2} P(Ti=1∣Xi)=P(Ti=0∣Xi)=21 ,так τ ( Икс я ) знак равно п ( Y я знак равно 1 ∣ Икс я , Т я знак равно 1 ) - п ( Y я знак равно 1 ∣ Икс я , Т я знак равно 0 ) знак равно п ( Y я знак равно 1 , Т я знак равно 1 ∣ Икс я ) п ( Т я знак равно 1 ∣ Икс я ) - п ( Y я знак равно 1 , Т я знак равно 0 ∣ Икс я ) п ( Т я знак равно 0 ∣ Икс я ) знак равно 2 [ п ( Y я знак равно 1 , Т я знак равно 1 ∣ Икс я ) - п ( Y я знак равно 1 , Т я знак равно 0 ∣ Икс я ) ] знак равно [ п ( Y я знак равно 1 , Т я знак равно 1 ∣ Икс я ) - п ( Y я знак равно 1 , Т я знак равно 0 ∣ Икс я ) ] + [ 1 2 - п ( Y я знак равно 0 , Т я знак равно 1 ∣ Икс я ) - 1 2 + п ( Y я знак равно 0 , Т я знак равно 0 ∣ Икс я ) ] знак равно п ( Z я знак равно 1 ∣ Икс я ) - п ( Z я знак равно 0 ∣ Икс я ) знак равно 2 п ( Z я знак равно 1 ∣ Икс я ) - 1 \tau(X_i)=P(Y_i =1|X_i,T_i=1)-P(Y_i=1|X_i,T_i=0)\\ =\frac{P(Y_i=1,T_i=1|X_i)}{P(T_i=1|X_i)}-\frac{P(Y_i=1,T_i=0|X_i)}{P(T_i=0 |X_i)}\\ =2[P(Y_i=1,T_i=1|X_i)-P(Y_i=1,T_i=0|X_i)]\\ =[P(Y_i=1,T_i=1|X_i)-P(Y_i= 1,T_i=0|X_i)]\\ +[\frac{1}{2}-P(Y_i=0,T_i=1|X_i)-\frac{1}{2}+P(Y_i=0,T_i=0|X_i)]\\ =P (Z_i=1|X_i)-P(Z_i=0|X_i)\\ =2P(Z_i=1|X_i)-1 τ(Xi)=P(Yi=1∣Xi,Ti=1)−P(Yi=1∣Xi,Ti=0)=P(Ti=1∣Xi)P( Йи=1, Ти= 1∣Xi)−P(Ti=0∣Xi)P(Yi=1,Ti=0∣Xi)=2[P(Yi=1,Ti=1∣Xi )−P(Yi=1,T i=0∣Xi)]=[P(Yi=1,Ti=1∣Xi)−P(Yi=1,Ti=0∣Xi)]+[21−P( Йи=0, Ти=1∣ Xi)−21+P(Yi=0,Ti=0∣Xi)]=P(Zi=1∣Xi)−P(Zi=0∣Xi)=2P(Zi =1∣Xi)−1 Заметил, п ( Y я знак равно 1 , Т я знак равно 1 ∣ Икс я ) знак равно п ( Т я знак равно 1 ∣ Икс я ) - п ( Y я знак равно 0 , Т я знак равно 1 ∣ Икс я ) знак равно 1 2 - п ( Y я знак равно 0 , Т я знак равно 1 ∣ Икс я ) P(Y_i=1,T_i=1|X_i)=P(T_i=1|X_i)-P(Y_i=0,T_i=1|X_i)=\frac{1}{2}-P(Y_i=0, Т_i=1|X_i) P(Yi=1,Ti=1∣Xi)=P(Ti=1∣Xi)−P(Yi=0,Ti=1∣Xi)=21−P(Yi =0,Ti=1∣Xi),так Устанавливается предпоследний знак равенства。
Процесс обучения и тестирования показан на рисунке ниже. Пользователи с Z = 1 Z = 1 Z=1 отсеиваются из экспериментальной группы и контрольной группы как положительные образцы, а остальные используются как отрицательные образцы. Фактически, Z = 1 Z = 1 Z=1 — это пользователи, разместившие заказы в экспериментальной группе, и пользователи, не разместившие заказы в контрольной группе. Таким образом, пользователи экспериментальной группы и контрольной группы могут быть напрямую объединены и объединены. смоделировано с использованием одной модели для реализации данных. Откройте уровень и уровень модели.
Метод мета-обучения относится к прогнозированию Uplift на основе Meta-Learner, где Meta-Learner может быть любым существующим алгоритмом прогнозирования, например LR, SVM, RF, GBDT и т. д. В зависимости от комбинации Meta-Learner его обычно делят на: S-Learner, T-Learner, X-Learner и R-Learner.
S одинокий,S-Learner подразумевает использование модели для оценки подъема.,Прямо сейчасДобавьте вмешательство к выборочным характеристикам экспериментальной группы и контрольной группы. T T T-связанные характеристики: объедините характеристики выборки и метку экспериментальной группы и контрольной группы. Объединение и обучение модели。Конкретные шаги:
преимущество:
недостаток:
Т — два,T-Learner предполагает использование двух моделей для оценки подъема.,Прямо сейчасИспользуйте две модели для моделирования ситуаций вмешательства и невмешательства соответственно и примите разницу как подъем.。Конкретные шаги:
Прогнозчас,Используйте две модели, чтобы предсказать каждого пользователя, которого нужно спрогнозировать.。
преимущество:
недостаток:
Предлагается на основе модели «Алгоритм X-Learner в двух моделях».,на основеИдея использования результатов наблюдаемых выборок для оценки результатов ненаблюдаемых выборок, аппроксимации приращения и корректировки веса тенденции результатов для достижения цели оптимизации приблизительных результатов.。Конкретные шаги:
преимущество:
недостаток:
Идея алгоритма R-Learner отличается от Two、SingleиX-Learner。Его основная идея заключается вОпределите функцию потерь с помощью преобразования Робинсона, а затем достигните цели моделирования приращения путем минимизации функции потерь.。Конкретные шаги:
преимущество:
недостаток:
Традиционная модель машины для изучения,Основная идея древовидной модели — разделение характерных точек.,Разделите X на подпространства одно за другим,В этом сценарии субсидирования,Идея надежды найти небольшую группу пользователей с высоким приростным ростом почти идеально совпадает с。
Традиционная модель дерева классификации надеется использовать теорию информации (информационная Такие идеи, как информационная энтропия в теории), используются для решения задач классификации путем расчета прироста информации. И в подъеме tree modelсередина,Суть все равно в том, чтобы измерить разницу переменных до и после разделения, чтобы решить, стоит ли разбивать узел.,ноздесь Разница в решенияхМетод расчета больше не является получением информации, а представляет собой различные методы расчета, которые напрямую моделируют прирост, включая использование дивергенции распределения для моделирования подъема и непосредственное моделирование подъема.。
Ниже представлены три древовидных алгоритма: Uplift-Tree, CausalForest и CTS.
Расхождение распределения — это величина, используемая для измерения разницы между двумя распределениями вероятностей, когда два распределения одинаковы.,Два дискретных распределениярасхождениенеотрицательен и равен нулю。мы можемПоймите экспериментальную группу и контрольную группу как два распределения вероятностей, а затем используйте расхождение распределения в качестве критерия разделения нелистовых узлов, чтобы максимизировать разницу между распределениями категорий выборки экспериментальной группы и контрольной группы и уменьшить неопределенность выборки.。
Вычислить расхождение распределения D ( P T ( Y ) : P C ( Y ) ) D(P^T(Y):P^C(Y)) D(PT(Y):PC(Y)), общее расхождение распределения Существуют KL дивергенция (дивергенция Кульбака-Лейблера), евклидово расстояние (евклидово расстояние в квадрате) и дивергенция хи-квадрат, соответствующие следующим трем методам: K L ( P : Q ) = ∑ я п я журнал п я q я (23) K L(P: Q) =\sum_{i} p_{i} \log \frac{p_{i}}{q_{i}}\tag{23} KL(P:Q )=i∑pilogqipi(23) E ( P : Q ) = ∑ i ( p i - q i ) 2 (24) E(P: Q) =\sum_{i}\left(p_{i}-q_{i}\right)^{2}\tag{24} E(P:Q)=i∑(pi−qi)2(24 ) χ 2 ( п : Q ) знак равно ∑ я ( п я - q я ) 2 q я (25) \ chi^{2}(P: Q) =\ sum_ {i} \frac{\left(p_{i}-q_{i}\right)^{2}}{q_{i}}\tag{25} χ2(P:Q)=i∑qi(pi− ци)2(25) Среди них p p p представляет группу лечения, q q q представляет контрольную группу, i i i представляет значение. Если это проблема двух разделений, то i ∈ { 0 , 1 } i\in\{0, 1\} iε{. 0,1}
У трех вышеупомянутых расхождений распределения есть что-то общее. Когда два распределения вероятностей одинаковы, значение равно 0, когда разница между двумя распределениями вероятностей больше, значение больше; Преимущество евклидова расстояния в том, что оно симметрично и его значение более стабильно.
Дивергенция распределения также имеет особенность: из формулы можно вывести, что, когда данные контрольной группы в узле пусты, дивергенция KL вырождается в прирост информации в критерии разделения дерева решений, а дивергенция хи-квадрат вырождается; в индекс Джини. Когда данные экспериментальной группы в узле пусты, евклидово расстояние будет преобразовано в индекс Джини. Это одно из преимуществ такого типа критерия разделения.
Основной процесс построения модели заключается в следующем:
Например🌰:
обрезка:
Обрезка предназначена для того, чтобы модель имела лучшую способность к обобщению. Существует множество методов сокращения стандартных деревьев решений. Самый простой из них — проверить, помогает ли это повысить точность проверочного набора до и после сокращения. Однако этот метод нелегко реализовать в инкрементальном моделировании.
В статье предлагается метод измерения — максимум class probability difference,Основная идея заключается в том,Посмотрите на разницу между группой «Лечение» и группой «Контроль» в узле. Если отдельный корневой узел больше, то обрезка.。Конкретные шаги заключаются в следующем::
Как следует из названия, CausalForest, как и RandomForest, относится к модели леса, полученной путем слияния нескольких моделей CausalTree. Для CausalForest это может быть любой отдельный древовидный метод.
Когда слои разделены на достаточно мелкие слои, приблизительно считается, что Конфаундер устранен. Тогда Поднятие листового узла задается как. τ ^ ( x ) знак равно 1 ∣ { i : W i знак равно 1 , X i ∈ L } ∣ ∑ { я : W я знак равно 1 , Икс я ∈ L } Y я - 1 ∣ { я : W я знак равно 0 , Икс я ∈ L } ∣ ∑ { я : W я знак равно 0 , Икс я ∈ L } Y я ( 30) \hat{\tau}(x)=\frac{1}{\left|\left\{i: W_{i}=1, X_{i} \in L\right\}\right|} \sum_{\left\{i: W_{i}=1, X_{i} \in L\right\}}^{Y_{i}} -\frac{1}{\left|\left\{i: W_{i}=0, X_{i} \in L\right\}\right|} \sum_{\left\{i: W_{i}=0, X_{i} \in L\right\}}^{Y_{i}} \tag{30} τ^(x)=∣{ я: Wi=1,XiL}∣1{ i:Wi=1,Xi€L}∑Yi−∣{ i:Wi=0,Xi€L}∣1{ i:Wi=0,XiL}∑Yi(30)
Обучите несколько CausalTree на основе разных подмножеств выборок и используйте среднее значение в качестве окончательного результата τ ^ ( x ) = B − 1 ∑ b = 1 B τ ^ b ( x ) (31) \hat{\tau}(x)= B^{-1} \sum_{b=1}^{B} \hat{\tau}_{b}(x)\tag{31} τ^(x)=B−1b=1∑Bτ^b(x)(31)
CTS(Contextual Treatment Выборка) представляет собой Древовидное поднятие. метод моделирования,Доступно дляПроблемы с MultiTreatment и общим типом ответа (классификация или регрессия). В отличие от дивергенции распределения, в соответствии с этим стандартом мы напрямую максимизируем разницу в ожиданиях меток между экспериментальной группой и контрольной группой в каждом узле (можно понимать как значение Uplift выборки в этом узле).,И используйте это, чтобы разделить узел.
Конкретный процесс построения дерева CTS:
По сравнению с мета-обучающимся, модель дерева подъема часто моделирует подъем напрямую и использует функции для непосредственного сегментирования толпы, поэтому точность модели часто выше. Однако в практических приложениях все же необходимо обращать внимание на сходимость древовидной модели и ее обобщающую способность.
Можно использовать широко используемые алгоритмы классификации и регрессии. AUC, точность и RMSE Подождите, чтобы оценить качество модели. И спасибо Аплифту Model Невозможно одновременно наблюдать за реакциями одного и того же пользователя при различных стратегиях вмешательства, то есть невозможно получить истинный прирост пользователя. Мы не можем напрямую использовать приведенные выше показатели оценки для измерения качества модели.。поэтому,Модель Uplift обычно выравнивает данные экспериментальной группы и контрольной группы, разделив их на децили для проведения косвенной оценки.。Часто используемые методы оценки Фаю Qini Кривая, AUUC ждать.
Кривая Кини — это один из методов измерения точности модели поднятия. Он оценивает качество модели путем расчета площади под кривой, аналогично AUC. Процесс расчета следующий:
(1) На тестовом наборе,将实验组и对照组分别按照模型прогнозируемые приращенияЗависит от Сортировка сверху вниз По соотношению количества пользователей к числу пользователей в экспериментальной группе и контрольной группе экспериментальная группа и контрольная группа делятся на десять частей соответственно. Top10%, 20%, . . . , 100%。 (2) Рассчитайте коэффициенты Qini для Top10%, 20%,...,100% и сгенерируйте данные кривой Qini (Top10%,Q(Top10%)), (…,…), (Top100%, Q(Top100%))。Qini Коэффициенты определяются следующим образом:
в, когда пользователь размещает заказ, результат вывода равен 1
Видно, что Цини Знаменатель коэффициента — общий размер выборки экспериментальной группы и контрольной группы. Если разница в количестве пользователей между экспериментальной группой и контрольной группой велика, результаты станут недостоверными.。
Процесс расчета AUUC (площадь под кривой подъема) такой же, как и для кривой Кини. Рассчитайте первые 10%, 20%, 100% индикаторы, нарисуйте кривую, а затем найдите площадь под кривой. измерить качество модели плохо. Разница в том, что метод расчета индикатора AUUC отличается от метода расчета индикатора Qini. Индикатор AUUC определяется следующим образом:
и Qini Индикаторы имеют тот же смысл, когда i Возьми 10% час, n t ( i ) n_t(i) nt(i) означает до экспериментальной группы 10% количество пользователей, n c ( i ) n_c(i) nc(i) представляет перед контрольной группой 10% Количество пользователей. Это можно увидеть,Метод расчета индикатора AUUC позволяет избежать проблемы ненадежных показателей, вызванной большой разницей в количестве пользователей между экспериментальной группой и контрольной группой.。
Стоит отметить, что,При выполнении группирования существует большая разница между расчетным приращением граничных точек контрольной группы и расчетным значением граничных точек экспериментальной группы.,Два вышеуказанных показателя оценки представляются менее надежными.。поэтому在实际середина,Мы часто используем другой метод расчета AUUC:
AUUC — важный и странный показатель. Это важно, поскольку это практически единственный интуитивно понятный и интерпретируемый индикатор оценки качества модели на автономном этапе модели подъема. Это странно, потому что, хотя по сути кажется, что он основан на некоторых идеях индекса оценки классификационной модели AUC, инженеры-алгоритмы, привыкшие к AUC, определенно будут немного сбиты с толку, когда впервые столкнутся с ним.
В качестве эталона при оценке классификационной модели,AUCНет необходимости слишком подробно останавливаться на превосходстве。Лучше всего то, что результаты ее оценки достаточно стабильны, чтобы их можно было установить за пределами самой модели и выборки.,Пока это проблема классификации,AUC0,5 — случайная линия,Модель 0.6 все еще нуждается в повторении, чтобы найти возможности для улучшения.,0,6-0,8 — стандарт для запуска модели.,Для моделей выше 0,9 необходимо учитывать, не является ли модель переобученной и существуют ли неизвестные функции сильной корреляции, участвующие в обучении модели. Один метод стоит десяти тысяч методов,Мы можем отложить функции,Детали построения выборки и модели непосредственно применимы к этому набору рекомендаций.
Однако для AUUC эта возможность совершенно недостижима. Формулу прохожденияAUUC можно увидеть,Абсолютное значение показателя, окончательно сформированного AUUC, зависит от размера выборки. То есть,на наборе тестовых образцов,Наша AUUC может составлять от 0 до 1 Вт.,Вместо этого я изменил набор сэмплов,Это значение может составлять от 0 до 100 Вт. Это делает невозможным оценку модели на разных тестовых выборках. Обязательным условием для каждой автономной итерации модели является то, что все модели используют один и тот же набор тестовых образцов. Когда мы закончим обучение новой модели,Закончился AUUC 400 000.,У нас нет абсолютно никакой возможности узнать, что представляет собой это значение с точки зрения точности модели.,мы можем толькоДостаньте старую модель, запустите AUUC на том же тестовом наборе и сравните ее друг с другом.。Это, несомненно, делает весь процесс итерации обучения немного более болезненным.。
Заявление об авторских правах: Содержание этой статьи добровольно предоставлено пользователями Интернета, а мнения, выраженные в этой статье, представляют собой только точку зрения автора. Данный сайт лишь предоставляет услуги по хранению информации, не имеет никаких прав собственности и не несет соответствующей юридической ответственности. Если вы обнаружите на этом сайте какое-либо подозрительное нарушение авторских прав/незаконный контент, отправьте электронное письмо, чтобы сообщить. После проверки этот сайт будет немедленно удален.
Издатель: Лидер стека программистов полного стека, укажите источник для перепечатки: https://javaforall.cn/234946.html Исходная ссылка: https://javaforall.cn