Door Anoniem: Ik denk dat het juist wel goed is om dat in te voeren. Door de sites te laten betalen voor verkeer, worden zij gestimuleerd
om het doel van hun site te bereiken met zo weinig mogelijk verkeer (dan betalen ze minder). En dat komt weer ten goede
aan de gebruikers die daardoor minder data verbruiken en sneller hun pagina’s binnen hebben.
Win-win situatie, als je het mij vraagt. Op dit moment is een dergelijke druk er niet, en je ziet het gevolg: sites met een
simpele functionaliteit glijden af naar gedrochten die megabytes aan data nodig hebben voor allerlei “leuke effecten”
die je nergens kunt uitschakelen. Alles wordt met dezelfde spullen steeds langzamer.
Ik snap je intentie, maar feitelijk is die stimulans er al. Immers zowel afnemers (mensen thuis) als aanbieders (Youtube, Facebook, etc) betalen voor hun internetverbinding. Een zwaardere verbinding kost meer geld en dus is er een stimulans om het bandbreedtegebruik te beperken, zeker voor de grote jongens.
Ik denk niet dat het de “grote jongens” veel kost (of in ieder geval niet genoeg). Neem bijvoorbeeld Google. Toen dat
nieuw was (ik weet niet of veel mensen hier dat nog hebben meegemaakt) was het een HTML pagina van 500 bytes
ofzo, plus 1 plaatje. Wat je browser of proxy lokaal in de cache zette. Moet je eens kijken wat dat nu geworden is.
Zelfde met die andere diensten, Youtube, Twitter, noem maar op. Iedere keer als ze de site updaten wordt het allemaal
weer groter. En als je niet regelmatig een nieuwe computer koopt ook trager. Als ik op mijn werk kijk is het verschil
tussen “moderne sites” en wat we nog hebben aan ouderwetse interne pagina’s echt spectaculair. Nooit die draaiende
cirkeltjes en bewegende puntjes, gewoon meteen de gevraagde content.
Er mag best wel een stimulans komen om weer eens wat meer te optimaliseren. Ik vind dit altijd een risico van het geven
van high-end machines aan developers. Ze hebben zelf niks in de gaten. Bron: Security.nl