Używałem Python 3.13 i okazało się, że przy wielokrotnych operacjach dzielenia liczby typu int przez 100000 wynik był różny dla int() i //. Zarówno int() i // zwracają typ <class int> i zwracają część całkowitą dzielenia. Ale wygląda na to, że inaczej tracą precyzje. Więc, pewnie w zależności której wersji Pythona się używa, to przy obliczeniach na dużych liczba wyniki użycia int() i // mogą być różne. Nie znalazłem nic na ten temat w dokumentacji Pythona. Są tylko dyskusje na forach potwierdzające, te różnice.
Może ktoś z was też spotkał się z tym przypadkiem i wie coś więcej na ten temat.