Med anledning av mitt föregående inlägg drar man sig lätt till minnes alla hajpar och felaktiga föreställningar som graserar i datavärlden:
Det som äger marknaden är kvalitetsmässigt bäst! Fel! Enstaka marknadsstandarder och program är OK, men det som är mest spritt är det som haft öppna olicensierade standarder eller det som marknadsförts mest. Exempel är PC (olicensierad) och Windows (marknadsförd), Mac var/är tekniskt mer genomtänkt, Windows hade en bättre konkurrent OS/2 som var uselt marknadsförd, och som dess ägare IBM inte trodde på.
Objektorienterade programspråk: Jo OOPL:s är OK, men man kan objektorientera in absurdum, tills man inte hittar koden på grund av alla objekt, och så finns det ett stort gäng problem som är viktiga för programmering och där objekt eller inte objekt är helt irrelevant fråga, speciellt då det gäller strömmar, pluggar, parallellism, backtracking i sökprocesser, lazy-eval och sådant – att ha sina prylar som objekt hjälper något men själva jobbet kvarstår.
Java: Java uppfann det knaggliga trähjulet på nytt, i det ekrade cykelhjulets tidevarv, först efter 5-10 år återuppfanns generiska klasser som redan fanns i C++ och Ada, och detta i en lika dålig form som C++. Att snatta upp C#:s generiska klasser hade varit något bättre. Java har ett jättefint API som gör det lätt att programmera, Java's strängar är såvitt jag kan se helt obegripliga för alla andra än erfarna C- och C++-programmerare: de hänger sig och beter sig lika underligt som om de varit C-strängar. (Denna kritik riktas bara mot språket: JRE är en bra sak)
Garbage Collection: jättebra om man har en garbage-collection-algoritm inbyggd i programspråket, för då slipper man – som programmerare – att tänka på sådana saker som att allokera och deallokera minne. Tyvärr är garbage-collection-algoritmerna illa eller värre än illa implementerade: Java för Linux (Sun-versionen) stannar världen helt plötsligt så att man bara sitter och glor på programmet i upp till en minut – samma med den förskräckliga browsern Google Chrome, andra garbar läcker långsamt (Mozilla?) ytterligare andra gör programmet segt som sirap. Man kan i teorin tillverka bra garbar, men det är extremt svårt, och "marknadsstandard" tycks vara en garb som förorsakar en massa problem och irritation. Användaren blir inte glad!!
Visar inlägg med etikett garb. Visa alla inlägg
Visar inlägg med etikett garb. Visa alla inlägg
tisdag 27 juli 2010
Alla hajpar
onsdag 7 juli 2010
Övergav Google-Chrome
(kopierat från siderespector)
Den überfantastiska Google-Chrome de Luxe Professional med Billy Joe Bob extension är egentligen avsett som trojanspridare. Efter att ha surfat med Google-Chrome GC ett bra tag kom jag på att fördelarna inte uppväger nackdelarna. Fördelar:
Den überfantastiska Google-Chrome de Luxe Professional med Billy Joe Bob extension är egentligen avsett som trojanspridare. Efter att ha surfat med Google-Chrome GC ett bra tag kom jag på att fördelarna inte uppväger nackdelarna. Fördelar:
- En GC-laddad websida verkar ta mindre plats än en motsvarande Epiphany, anledningen tros vara att GC baseras på WebKit och Epiphany på gecko – samma layout engine som i Mozilla – och gecko är slösaktig med minne,
- GC har en snabbare(?) och säkrare JavaScript-engine än Epiphany, Epiphany kan sätta igång och vrålköra och samtidigt dra en massa processorkraft, och det är en indikation på att man måste handdräpa
kill -KILLeller något annat hårt, för att operativet (Linux alltså) inte skall börja sega, - GC är känt för att ha ett enkelt GUI, och det måste vara bra,
- En av de värsta prestandatjuvarna – alltså en slags trojan – som brukar användas av stora websajter, t.ex. sverigesradio.se, för att analysera och omoraliskt spionera på användarens surfvanor kommer från Google Analytics ... Google-Chrome ... Google Analytics. Det går naturligtvis inte att stänga av "urchins" (trojaner) i Google-Chrome, och därmed kan man aldrig vara säker på en sajt som man surfar in på med Google-Chrome, det kan vara en sajt som plötsligtvis får operativsystemet att sega, samtidigt som det skickar över info om allt man surfat på till den sajt man surfar emot...
- GC skryter om sin fina nya JavaScript engine med sin ultrasnabba stop-the-world garbage collector vid namn V8, notera "stop-the-world". Världen stoppar verkligen: plötsligt stannar GC och man kan sitta där och hoppa i en minut innan något händer och hela OS:et segar. Då föredrar jag långsammare osäkrare garbage collectors som inte kör med stop-the-world. Den idiot som kom på att skryta om en "stop-the-world garbage collector" borde gå till psykdoktorn och be om medicin – en stark sort!
Etiketter:
browsers,
epiphany,
garb,
gecko,
google-chrome,
JavaScript,
minnesbloat,
ruttna sajter,
smutsweb,
surfspiontrojaner,
V8,
web,
webkit
fredag 28 maj 2010
27 maj: Check av blogspot.com: CLEAN!
(kopierat från siderespector)
På grund av erfarenheter från extremt sega och halvruttna websajter, speciellt sverigesradio.se, www.adherents.com och www.theoi.com, så kollade jag även upp om denna sajt kan vara nedsegad. Det är den inte, blogspot.com är ren, klar och frisk. Därför kan man köra mot blogspot med vilken webbrowser som helst, inklusive google-chrome.
Bakgrunden är ungefär den följande: i alla moderna webbrowsers finns en JavaScript, vilken av mina studier att döma är en inbäddad Scheme med en speciell syntax. Det är alltså en programspråksmotor som tar emot program över Internet, och dessa program laddas med när man laddar en webbsida, varefter programspråksmotor börjar köra programmet. Nu är JavaScript så definierat att den behöver reservera mer och mer minne från datorn där användaren sitter och surfar. Den skall också städa upp sådant minne som den inte använder, men detta gör de flesta JavaScriptmotorer mycket dåligt, så vartefter tiden går, så går det åt mer och mer minne, och datorn blir långsammare och långsammare. En annan sak som plötsligt kan hända är att JavaScriptmotorn får för sig att stanna webbrowsern för att städa så att ingenting händer under kanske några minuter.
Nu har olika websajter olika mycket JavaScriptkod, många har ingenting alls, men ju större flashigare och finare en sajt är desto mer djävlig är dess JavaScriptkod som regel. Som sagt: blogspot.com är en snäll sajt: den har litet grand JavaScript för att lyfta litet fönster och möjliggöra kommentering.
På grund av erfarenheter från extremt sega och halvruttna websajter, speciellt sverigesradio.se, www.adherents.com och www.theoi.com, så kollade jag även upp om denna sajt kan vara nedsegad. Det är den inte, blogspot.com är ren, klar och frisk. Därför kan man köra mot blogspot med vilken webbrowser som helst, inklusive google-chrome.
Bakgrunden är ungefär den följande: i alla moderna webbrowsers finns en JavaScript, vilken av mina studier att döma är en inbäddad Scheme med en speciell syntax. Det är alltså en programspråksmotor som tar emot program över Internet, och dessa program laddas med när man laddar en webbsida, varefter programspråksmotor börjar köra programmet. Nu är JavaScript så definierat att den behöver reservera mer och mer minne från datorn där användaren sitter och surfar. Den skall också städa upp sådant minne som den inte använder, men detta gör de flesta JavaScriptmotorer mycket dåligt, så vartefter tiden går, så går det åt mer och mer minne, och datorn blir långsammare och långsammare. En annan sak som plötsligt kan hända är att JavaScriptmotorn får för sig att stanna webbrowsern för att städa så att ingenting händer under kanske några minuter.
Nu har olika websajter olika mycket JavaScriptkod, många har ingenting alls, men ju större flashigare och finare en sajt är desto mer djävlig är dess JavaScriptkod som regel. Som sagt: blogspot.com är en snäll sajt: den har litet grand JavaScript för att lyfta litet fönster och möjliggöra kommentering.
Etiketter:
browsers,
garb,
JavaScript,
minnesbloat,
ruttna sajter,
web
Prenumerera på:
Inlägg (Atom)