Федот, не унывайте. Пойдите по пути осознания того, что на самом деле нет возможности однозначно сказать на один конкретный матч--валуйная ли там ситуация по кефам или нет. Если допустим Вы сами оцениваете шанс на П1 то по сути Вы состязаетесь в точности моделью с моделью конторы (которая ещё и корректируется игроками). Так как у бк есть маржа то модель БК априорно можно считать точнее вашей на эту маржу (ну или долю её во всяком случае). Не секрет что при любых потугах...чтоб мы там не изобретали в плане создания модели для оценки вероятностсных шансов мы упрёмся в то что исходные данные сами случайные+ существует предел точности который связан с доверительными вероятностями и доверительными интервалами.
Из неравенства Чебышева вытекает ряд неравенств полезных для какой-то простой модели ,поэтому уместно их привести.
Наиболее вероятное число успехов в цепи Бернулли определяется следующим образом
np-(1-p)<=Ko<=np+p Ko можно приближенно считать равным М(х)
где n—число испытаний , р—вероятность события
Для биномиального распределения : M=np V=np(1-p)
Тогда неравенство Чебышева для схем Бернулли будет иметь вид
P( |Sn-np|>=e)<=np(1-p)/e^2 учитывая что p(1-p)<=1/4
то P( |Sn-np|>=e)<=n/(4e^2) ( или P( |Sn-np|<e )>= 1- n/(4e^2) )
Для относительной частоты успеха fn(A) можно записать,
учитывая что M(fn(A))=M(Sn)/n V(fn)=p(1-p)/n для бин. распр. fn=Sn/n
P( | f(A) |-p|>=e )<= p(1-p)/(ne^2)<=1/(4ne^2)
Приведённое выражение весьма важно тк позволяет оценить какое число испытаний
необходимо провести (в модели фактически означает какое число команд необходимо собрать в кучу для подсчёта чего-то там типа ВНП....)
чтобы с определённой вероятностью что отклонение относительной частоты от реального значения вероятности не превзойдёт е (наперёд заданное). С ростом числа испытаний точность наших оценок будет повышаться, об этом говорит закон больших чисел Бернулли :
Для каждого е>0 lim[P( | fn(A) –p |>=e )]=0
n-àбесконечн
Рассмотрим вопрос непосредственно касающийся модели
Минимальный объём выборки
Рассмотрим некоторое событие De= { |fn(A)-p|<e } е – даёт точность оценочного значения
Т.к. относительная частота fn – случайная величина ( оценки случайных величин сами случайные)
то точность оценок получается с определённой достоверностью (доверительной вероятностью) и эта
достоверность суть Р ( |fn(A)-p|<e )
на основании закона больших чисел появление события De с ростом числа испытаний n становится
всё вероятнее. Из неравенства Чебышева получим число n , обеспечивающее заданное качество
соответствующее е и P (De)=1-a
Если объём выборки n> 1/(4ae^2) то P(De)>=1-a
Если есть две команды даже и мы заставили их играть 20 раз подряд и получили числа ВНП то как не странно это тоже ни чё нам не даёт судя по приведённым выражениям ибо смотрите что получается
для получения точности е=0,15 (что плохо тк недостаточно ...это вот для оценки Р=0.3 в реальности может оказаться что она даже 0.45 или 0.15!!!!!!!) и достоверности не ниже 70% (Р =0,7 доверит. вер.) необходимо не менее 37 испытаний, что явно мы не в состоянии обеспечить в лиге (для е=0,08 а=0,25 (75%) n>156 для обеспечения более менее подходящих параметров точности и достоверности оценок)...........
Edited by Bambuk, 04 May 2016 - 07:54.