The problem to download from multiple server is that multiple servers may not be synchronized at the same time. <br>Data synchronization is a serious problem. But I guess this should be better if we can make sure that multiple servers have the same package files.
<br><br><div><span class="gmail_quote">On 10/22/07, <b class="gmail_sendername">Nicolas Alvarez</b> <<a href="mailto:nicolas.alvarez@gmail.com">nicolas.alvarez@gmail.com</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On 10/21/07, yueyu lin <<a href="mailto:popeyelin@gmail.com">popeyelin@gmail.com</a>> wrote:<br>> As you noticed, sometimes, synaptic downloads packages slowly. I noticed<br>> that apt-get in fact can use multiple threads to download sometimes. But
<br>> synaptic seems seldom to do this.<br>> I wanna know why? In fact, it will not be difficult to modify codes to<br>> support active multiple threads downloading. But it doesn't appear. I guess<br>> developers think it's impolite to fork a lot of threads to download things
<br>> from server. The server may only serve for a few *rude* people. If it's<br>> true, I will stop any attempts to do so. If it's not,I can have a try to do<br>> this.<br><br>Using multiple connections to a single server is a sure way to "make
<br>things worse", that is, overloading the server more. What does help is<br>making multiple connections to *different* servers. That actually<br>lowers load, since your download bandwidth is now dispersed between<br>
servers, so you're using up less upstream bandwidth from each server.<br>I have been doing so to download the .iso's via HTTP (torrents go<br>slowly for me).<br><br>--<br>Nicolas<br></blockquote></div><br><br clear="all">
<br>-- <br>--<br>Yueyu Lin