allora credo si faccia cosi... prima di tutto ti calcoli il tempo di propagazione per fare cio fai
Distanza/VelocitaLuce
ovvero
10/200.000 S = 5 * 10^-5 (ad essere sincero non credo di essere sicuro di questo calcolo visto che sono un po arruginito... qualcun'altro puo confermare?)
dopo di che calcoli il tempo per trasferire una singola frame questo sarà uguale a
bytemandati*8/larghezza di banda
l'esercizio non ha una larghezza di banda scritta quindi immagino che sia ha decisione dello studente,facciamo una larghezza di 100 MB/S viene
8000/100000000 = 8 * 10^-5
a questo tempo aggiungiamo il tempo di propagazione quindi 8 * 10^-5 + 5 * 10^-5
inoltre dobbiamo considerare il tempo che ci vuole per il ritorno dell'ack quindi 8 * 10^-5 + 5 * 10^-5 + 5 * 10^-5
ora con una frame mandiamo 900 byte di payload... se non sto sbagliando i calcoli,ci vogliono
100000000/900 = 111111 frame per mandare un giga di payload
quindi (8 * 10^-5 + 5 * 10^-5 + 5*10^-5) * 111111
pero di queste frame se ne perde una ogni 1000,ovvero si perdono all'incirca 111 frame,ergo all'incirca bisognera mandare 111 frame in piu quindi
(8* 10^-5 + 5 * 10^-5 + 5 * 10^-5) *111222
ad essere sincero ho molti dubbi su quello che ho scritto spero che qualcun'altro possa fare le dovute correzzioni

inoltre ho il sospetto che manchi un altro dato,il tempo di timeout in caso di frame mandata erroneamente... e quindi forse il calcolo di sopra dovrebbe essere
(8* 10^-5 + 5 * 10^-5 + 5 * 10^-5) *111111 + 111 * timeout