Napisałem program symulujący progresję "6" (cóż za geniusz wpadł na pomysł by zwiększyć ilość liczb podobnych w ciągu o 1). Na 1000 gier wygrywa się około 12 razy, może być to 18 razy, lub też 9. Zrobiłem test na 200 tysiącach gier. Można powiedzieć, że statystycznie progresja powtarza się( liczba gier/80 ). Przegrane zdarzają się rzadko, zwykle co 2000 gier, acz kolwiek zdarzają się też 2 lub 3 razy na tysiąc gier.Podczas 200 tysięcy gier wygrałem 2766 razy, a przegrałem tylko 95. Tak więc wielki stosunek wygranych do przegranych powinien gwarantować zarobek! Jednak obok tego stosunku przechodzi matematyka (nie rachunek prawdopodobieństwa który opisuje gigakasa, nazywając go matematycznym udowodnieniem), jest nim proste, podstawowe dodawanie, którego się uczą dzieci w podstawówce. Przyjmijmy że wygraliśmy w ciągu 2 tysięcy gier 60 razy, mieliśmy też szczęście i przegraliśmy tylko jeden mały raz. Wygrywając 60 razy wygraliśmy aż 60zł! Szczęście nam dopisuje. Lecz tak tylko się wydaje, bo przegrywając 1 raz tracimy... limit stołu pozwala na
podbicie stawki do 50 razy większej od początkowej, tak więc 1+2+4+8+16+32 (64 już nie możemy) wychodzi 63zł. Tak więc jesteśmy w sumie o 3 złote do tyłu.Oczywiście jeśli przegramy dwa razy, stracimy 126zł, które by odrobić trzeba wygrać 126 razy, gdzie stosując progresję musieli byśmy zagrać około 5 tysięcy razy i ani razu nie przegrać.
Wygrywając 2766 razy zarabiamy tyle samo pieniędzy co gier, przegrywając 95 razy tracimy tracimy dwa razy tyle niż wygraliśmy.
Przy 1 milionie prób wygrywamy około 13618 razy, przegrywamy 396 razy (24948zł). Wniosek do tej metody jak i samego hazardu każdy może wysunąć sam.
Tak więc autor gigakasa prawdopodobnie pomylił się pisząc swój programik.