23 August, 2011

Oracle VM VirtualBox

I use VMWare ESXi 4.0 at work when I set up new system-images or production-VMs. Which works reasonably well, but hogs a lot of resources for various tasks, even on the HP ProLiant blade-server at work :s

But I'm quite pleased about my new server-VM setup @ home :D

On my Ubuntu desktop @ home, I now mainly use Virtualbox OSE (Open-Source Edition). Simple, yet powerful and quite configurable ;D

Virtualbox was easy enough to set up, and installing Ubuntu Server on a virtual machine was fun :p taking snapshots as I went along configuring and restoring web-files and what-not. I'm really content with it :) I think it emulates very well with limited resources.

Although Oracle bought Sun Microsystems Inc., it's open-source products haven't shown any slow-downs in their progress and development, except for OpenOffice that is... But the LibreOffice project saved it from corrupting it's relationship with it's open-source community.



02 July, 2011

Monster PC build-time ;D


Okay, so my cousin's boyfriend bought some killer-components in the United States. He then asked me if I was interested in helping him order the remaining components to build a performance-powerhouse extraordinaire :p of course my inner g33k couldn't refuse.

He had purchased the following components so far:



I'm going to post further development of this monstrosity :p and I'm definitely going to record the first boot-up when the time comes, and post that here as well :) you can follow this post-thread with the label "monster-dualboot"
Edit 20110725: I have corrected the component-names after euph84 asked me to, I also fixed the correct manufacturer product-sheet links to correspond to the right product IDs.

23 June, 2011

WebGL VS. Silverlight



Nå må dere seriøst skjerpe dere Microsoft XD og kanskje få litt bedre orden i egen teknologi før dere kritiserer alle andres til egen fordel :p i alle fall når fordelen ikke egentlig eksisterer.

MS kritiserte sårbarheter i WebGL (Google sin web3D-satsing sammen med mange andre store IT-aktører på alternativ-markedet) for ikke så lenge siden, når det faktisk viser seg at deres egen teknologi har like kritiske (om ikke mer) sårbarheter (*lulz!*).

Jeg har ikke stort mye mot MS lenger, har rett og slett flamet nok om "M$" det siste tiåret. Men når de fortsetter med FUD og lekesandkasse-mentalitet, og allikevel påstår å være en seriøs aktør er det nok mer enn bare meg som rynker på nesen...

http://www.digi.no/872442/silverlight-har-samme-saarbarhet-som-webgl

18 May, 2011

downtime ...

www.pizslacker.org will be down for a few days due to software-upgrades.

www.pizslacker.org is once again fully operational ;)

07 April, 2011

--// Samsung Nexus S \\--

My next tech-upgrade, is the cutting edge smart-phone Samsung Nexus S.

As a collaboration between Samsung and Google, it's the next-step innovation in smart-phone technology.

My first Android-phone was the developer-phone HTC Magic ( non-Google branded B-revision ). It was a barebones Android-system without any major UI additions like HTCs newer Desire-models  (Sense UI).

From what I can gather, Nexus S is like the previous Nexus phone with updated components and firmware. Pretty much an updated developer-phone for Google's latest Android-platform: v2.3 "Gingerbread".

With an up-2-date CPU of 1GHz, codenamed "Hummingbird" ( ARM Cortex A8 ), the Nexus S is multitask-capable. Making it the most powerful Android-phone at the moment. The ARM Cortex A8 chip includes a co-processor: the PowerVR SGX 450 GPU for OpenGL ES 1.1/2.0 for enhanced 2D/3D mobile graphics and animation.

As a superuser, my previous phones have all lacked enough memory-capacity for my userload. The Magic had 192MB of userland-accessible memory, my current Desire-phone has 150MB userland-accessible memory.

Both Magic and Desire has expandable storage by using a microSD memory card slot. Magic can handle cards of up to 16GB capacity and Desire can handle up to 32GB capacity. The only problem with external memory storage is read/write-times while using externally stored applications, which at times would entail a lot of loading-time when using data-heavy applications. Instead of just boosting and mostly utilizing the userland-accessible memory that is incorporated into the chipset.

With the Nexus S they have eliminated these problems as the userland-accessible memory is a 15GB iNAND-partition :D It really doesn't bother me that the memory is iNAND and that it doesn't sport a microSD slot, in my experience, phones and memory cards don't always work all that well together ( mostly because microSD cards doesn't handle rapid mounting/unmounting good at all in my experience ).

I'm looking forward to getting my new smart-phone, and can't wait to play with new features and functions :p

Addition, april 23rd:

I have now been tinkering with the Samsung Nexus S for a few days, and I am one happy techie :)

It is excactly like I imagined it to be by reading the published specs online. Allthough the user-land accessible memory-partition wasn't 15GB, it was more like 14GB. And with one 1GB user-land accessible system-partition to support the restricted 1GB nternal Android-system.

512MB of dedicated Mobile DDR with the PowerVR gpu really boosted the animation speed and look. Even the startup-logo is pure eye-candy :p Google-logo fading into a Nexus "X" symbol animated with colored spiral-lines, niiice! :)

I can even store all the games I've bought from Android-market without worrying about slowing the device down like I had to with the Desire. All apps are installed, all my games, utilities, etc. And I haven't even used one gigabyte completely yet :D

Yay! Woohoo! Awesomesauce! ^_^

23 February, 2011

PS3 YLOD

Not to bash Sony in any way. Or to criticize too much either.., I love their work and innovation :)

That being said: I didn't buy the first PlayStation3 revision, thankfully. A lot of friends bought both the first, and second revisions which both had their fair share of hardware and software issues.

The third one, you would have thought would be fairly stable and sufficient. And it was, after mediocre use over 4 years. But just at the end of the fourth year, mine had started making annoying noises from the BD-drivebay. At this point, the warranty was void. And after a month or two, the fan ran on constant maximum. Then, the horror. I got up one morning and pushed the power-button, it started up as usual, flashed an YLOD, shut off and blinked red. FML...



I am now a proud (yet, distraught) owner of a fourth generation PlayStation3 Slim. Yes, it is a little less powerfull than the "phat", but generally quite noiseless. I also bought a PS3 Slim horizontal cooler stand to pre-empt another YLOD incident.

I also do regular backups because of Sony's updated firmware that doesn't let you swap disks from one system revision to the other ( which worked fine on the third gen ).

I bet it will bring me hours of HD film and gaming joy. But I must admit Sony has done theirs to make it quite an awfully expensive hobby. And I'm not sure I will continue to endorse Sony if this continues to get worse in the time coming :/

02 February, 2011

DENON A/V Receiver - HDMI 1.3a



Valget falt raskt på Denon da en kamerat sa det var tilbud på low-end receiveren deres AVR-1610 i fjor. Forsterkeren er ikke en disco-brøler, leverer dog klar og konsis lyd, men jeg må innrømme at det var funksjonene som lokket meg til modellen.

AVR-1610 er definitivt budsjett-varianten av mer high-end hjemmekinosystemer laget av Denon. Men den skiller seg nokså klart fra andre receivere i samme prisklasse på de tekniske og funksjonsmessige finessene.

  • Data-styrt lydrom-korreksjon (lyd-funksjonen "Audyssey" med medfølgende mikrofon i opptil 6 måleposisjoner) som virkelig er bra utarbeidet. Det krevde litt tålmodighet å kjøre lydtest på 6 posisjoner fra alle høyttalere, men det høres i ettertid. Klang, tone og bass kjører mye bedre sammen i valgt rom enn med fabrikk-innstillingene.
  • Full støtte for HD lyd (DTS HD Master Audio + Dolby TrueHD).
  • Oppdatert Dolby Pro-Logic IIz surround for oppmiksing av stereo-kilder.
  • Oppskalering av analog video / SD til HDMI High-Def.
  • On-Screen-Display for HDMI-styring.
  • Et lass med RCA-tilkobling for analoge lydkilder (DVD, DVR, TV, CD, osv.)
  • 3 x HDMI 1.3a porter + switch + 1 HDMI 1.3a repeater, 2 x S/PDIF Opt., 1 x S/PDIF Coax.
  • D/A 24bit 96KHz - A/D  24bit 192KHz.
  • Mulighet for original iPod-tilkobling med fjernstyring.
  • Intelligent strømfordeling for alle høyttalertilkoblinger.
M.a.o. får du utrolig mye teknologi og datastyrt lyd-korreksjon for pengene. For ikke å snakke om alle digitale tilkoblinger en trenger for minst mulig støy-, ulyd-forstyrrelser på lydsignaler.

Trenger man mer kraft for å drive høyttaler-settene en har, trenger man ikke bytte ut forsterkeren, bare integrere et kraftig slutt-trinn, så kan Denon-receiveren benyttes som styrings-receiver.

Jeg har nå benyttet AVR-1610 siden Mai 2010, og er i alle fall MER enn godt nok fornøyd :) 9.5/10 poeng!


Link til produkt-side hos produsent:
http://denon.co.uk/uk/Product/Pages/Product-Detail.aspx?Catid=83742842-dc75-4090-b169-b916700fd158&SubId=43eadffa-05fc-430a-a586-b5137428cc5f&ProductId=d1116d48-4581-466c-82e9-86d0028e1079

23 November, 2010

CERN i Norge



Regjeringen viser støtte til forslaget om eget CERN-senter i Norge. Fornyingsminister Rigmor Aasrud innser at vi trenger konkurransedyktig IKT-struktur i landet, og egentlig er ganske ledende på mange områder innen, nettopp IKT.

CERN anmodet i juli i år sine medlemmer å uttrykke sin interesse om å være vertsland for lokaliserte datasentre, og dette har nå fått offentlig støtte her til lands. Regjeringen skal nå uttrykke sin positive holdning til norske aktørers tilbud gjennom et brev til CERNs ledelse, og Rigmor Aasrud vil i slutten av måneden reise til Genève for å fremme denne støtten og Norges evne til å være vertsland.

På tide at vi i nord blir internasjonale aktører på dette området og i dette omfanget etter min mening :)

Go Norge! ;D

Link til Computerworld-artikkel:
http://www.idg.no/computerworld/article185717.ece

27 October, 2010

Ubuntu med eget brukergrensesnitt



"Unity"
Ubuntu har alltid basert grensesnittet sitt hovedsaklig på GNOME desktop-miljøet. Canonical (utviklingsselskapet bak Ubuntu) har bidratt en del til GNOME, og til neste utgave av GNOME (versjon 3.0) med programmet "GNOME Shell" (kommando-linje terminal program).

Men nå uttaler Canonical at deres egne visjoner om grensesnitt i fremtiden skiller seg vesentlig fra ledende utviklere bak GNOME Shell. Dette har nå resultert i at Canonical muligens kommer til  å vrake GNOME helt som grensesnitt i kommende versjoner av Ubuntu, og heller benytter sitt egenutviklede grensesnitt (fra Netbook-versjonen av Ubuntu, kalt Ubuntu Netbook Edition), kalt "Unity".

Det skrives også at åpen kildekode fellesskapet ytrer misnøye mot Canonicals valg om å ikke utgi kildekode for alle deres bidrag, noe jeg kan forstå. Det er aldeles ikke lett å være ledende på noe som benytter proprietære og åpne løsninger om en annen, for så å gi vekk alle oppskriftene på egne løsninger.

Som jeg har blogget tidligere, så synes jeg at proprietær og åpen teknologi godt kan eksistere side om side. Når dette er en distribusjon som retter seg mot "alle" må det ofres ting og tang for at det skal lønne seg å utvikle produktet i det hele tatt. Men nå avsporer jeg litt, skal ikke gå videre inn på etikk, lisenser og lignende i dette innlegget. For å si det på en enkel måte: stå på Canonical! ;)

Digi.no artikkel:
http://www.digi.no/854570/ubuntu-satser-paa-eget-brukergrensesnitt

24 October, 2010

Tales from a Windows-free life

I completely stopped using Windows around 2002, and I've really enjoyed it, very, very much :)

Since then I've been distro-hopping (swapping different Linux-versions, more commonly known as "distributions", or "distros") through everything from Slackware Linux to Ubuntu. It's been a rocky and unstable ride to be quite honest, but it's been an awesome learning-experience.

I can't even begin to count all the problems concerning re-installation of Windows on both my hands. Yes, that's BOTH hands! I really, REALLY hate re-installing Windows. And if you're a super-user like me, who likes to play around with your computer-systems, you've done a re-install a couple of dozen times (or maybe even more).

Doing a windows-update after a fresh installation can take HOURS... Suffice to say it's a tedious and boooooooring task. Yes, I can hear a comment in the distance saying "why not use an up-to-date installation disc with all the Service Packs included?", well, the problem with that option is this: Windows AIN'T FREE. But that is not the only reason why I've renounced Microsoft-products alltogether. License this and license that, non-disclosure agreements and what-not. I'm sick and tired of it. Not to mention the installation-hell it is to install Windows onto a laptop, or (God forbid) a NETBOOK! After doing tenfolds of re-installations in the 90s and the early 2000s, my conclusion for personal operating system and software-usage came to this: No More Windows For Me!

I'm not giving Windows or Microsoft the finger. I've used their software for quite some time earlier in my computing-life. Even as far back as DOS and Windows 3.11. I'm just saying it's not for me anymore. I need more options and alternatives to doing computing tasks, I don't like being locked-in to one, and ONLY one solution.

Doing a fresh Linux installation, can take MINUTES, at most an hour or two. And if you're nice about it and don't include a shitload of third-party addons, you're likely to only do this ONCE! One time, and only doing updates and release-upgrades every now and then afterwards. Ok, so installing operating systems is not for everyone. But you can always ask a nice geek/nerd-friend to do this for you. Doing updates and upgrades nowadays is rather straightforward. The system asks if you want to update/upgrade, you press "Yes", you type in your password; and HEY PRESTO! It's over and done with.

I admit, being experimental with a Linux-system can do irrepearable damage, but hey, that's how we learn. And it pays off to use a system you can sacrifice for such a project. I did, multiple times. That's why it's called "experimental".

After doing all my experimenting on Linux and figuring out how it works, I decided to use a mainstream-distro to save me from headaches when trying to get things working. That's why the choice fell on Ubuntu.

After switching to Ubuntu in early 2009 (from Slackware Linux, which I still like), I've never looked back. Ubuntu serves my every computing need. It includes almost every public proprietary technology, from Flash to Java. Allthough it has to be added manually, doing so is not hard. It is explained in great detail all over the web, you just have to look for it. And, Ubuntu offers alternative programs to just about every web-service available today. Another great point for pro-linux, is that it runs on just about any hardware available as well. Can you say the same for Vista? Or Windows 7? I think not...

Nuff said ;)

19 October, 2010

"Linux er død (igjen)" - Eller?



Jaja, skal si meg enig i at Linux på skrivebordet kanskje aldri når frem til mannen i gata. Men ikke fordi det ikke er mulig, vanskeligere, eller utilgjengelig. Ingen av disse utsagnene stemmer i det hele tatt.

Det hele dreier seg mer om uvitenhet enn noe annet. Og det at folk er "vant" med det de er vant til (les: Windows / Mac OS X).

Tankegangen blant gjennomsnittet er at programvare laget av store programvare-selskaper som selger dette, er "bedre" enn gratis programvare. Dette stemmer ikke alltid heller.

Skjønt fri programvare kanskje ikke har de samme funksjonene som betalt programvare, betyr det ikke nødvendigvis at de ikke kan gjøre akkurat den samme jobben (gjerne bedre i mange tilfeller), men at de utføres på alternative måter (dette fordi proprietær programvare ofte har lisenser og patenter krøllet inn i oppskriftene for å beskytte opphavsretten, men det har også visse frie prosjekter, deriblant Linux kjernen).

Jeg er nokså enig i det mange sier om at Linux er for avanserte brukere, eller såkalte "super-brukere", jeg er selv en super-bruker. Og når man besitter denne kompetansen, krever man gjerne litt mer av programvaren man bruker. Jeg gikk personlig over til fri programvare og Linux fordi jeg var drittlei av å være begrenset i hvordan jeg kunne benytte programvare, forandre den og dele den videre.

Jeg er nokså enig i Richard M. Stallmans (grunnleggeren av GNU og FSF) ideologi om at all innovasjon og oppskriftene på dette skal kunne deles, og at alle skal ha de samme rettighetene på det samme grunnlaget. Men at alt skal være gratis uten unntak, er å gå for langt. Det er nok av plass for begge typer programvare i vår verden.

Link til ITAvisen.no:
http://www.itavisen.no/853888/linux-er-dod-(igjen)

03 October, 2010

Pure fiber-fun!

I love using Linux this day and age :) I remember back in the DOS/Windows-days when you needed a specific program, but you wouldn't necessarily buy the program because you'd only use it once, then shelf it. So.., you'd BORROW software instead. Which was fine, back in the glory-days... Nowadays, everyone's crying "license this!" and "license that!".


If you wanted to upgrade any software, or even the OS itself.., you'd have to pre-order it and wait.

Today, there's no waiting, and no "postage pre-ordering". You pretty much just connect to a download-server and download whatever you're looking for. Either paid, or for free (I tend to favor the latter, even though I donate to various open-source projects).

If I want a specific program to do a specific job, the procedure is as follows:
  1. Read up on OSS projects focusing on my desired application-type.
  2. Figure out which one is the most stable by reading user-feedback.
  3. See if my OS has a version of the app I want in it's repositories.
  4. Download the app via my OS' package management system.
  5. Use the app for whatever, whenever ;D
My point being; I love to download new apps to tinker and toy with. Especially when I don't have to spend loads of hours downloading the app-data.

For example, downloading 3,3MBs of application-data/-binaries on a 30mbps fiber-connection took me about 1 second:
Need to get 3,386kB of archives. After unpacking 14.2MB will be used.
Fetched 3,386kB in 1s (2,122kB/s)

At which the computer is only using a fraction of the capability available, I just love it! Just thinking about the times I spent on the family-computer in my younger days, downloading linux source-packages through either a radio-connection (400/100) or an ADSL-connection (1000/600), makes me shudder and laugh XD

Welcome 30000/30000 FTTH! ;D


01 October, 2010

WebM og WebP



Nytt videoformat (WebM) og bildeformat (WebP) for web, noen av idéene til Google for å gjøre webben raskere og smidigere. Med de nye formatene og nettleseren deres Chrome (Chromium på Linux) som også er utviklet for å være rask og sikker, skal Google innlede fremtidens Internett, i dag.

Dette har lenge vært det store målet med innovasjonen og videreutviklingen de siste årene. Både med protokoller, programmeringsspråk, mobil-plattform, video-/bildeformat, dynamiske web-tjenester (Google Calendar, GMail, Google Documents, etc.), osv.

  • WebM
    • er et såkalt video-container filformat. Som i grunnen betyr at det er en innholdsfil (se for dere en boks med video og lyd-filer inni og innholdsregister) med tilhørende video- / lyd-strøm(mer). Containeren er basert på en profil av Matroska video-containeren. Formatet er laget for å være et royalty-free åpent video kompresjons-format. Audio / video benytter V8 (video) og Vorbis (lyd) video/lyd-kodeker.
  • WebP
    • er et bildeformat designet for rask lasting fra web. Basert på Google's V8 kodek, benytter det intra frame coding, med container-filformat basert på RIFF.
Google setter seg igjen i forkant med egne åpne web-formater for å fremme raskere og smidigere opplevelser på web.

Digi.no artikkel:
http://www.digi.no/852639/vil-erstatte-jpeg-paa-weben

30 September, 2010

PlayStation® 15 år!



Ja, da kom jeg plutselig på at det var meningen å blogge om 15 års jubileumet til PlayStation®. Sinnsykt at det allerede har gått 15 hele år :| føler ikke at det var så lenge siden jeg satt i stuen hos søskenbarnet mitt å spilte det første RayMan-spillet(!) :p

Og ja, det er en modchip bak på maskinen på bildet (hadde problemer med å laste opp bildet på Picasa, så derfor mangler nederste del). Det er min trofaste første PlayStation, som har gledet i mange, mange år (som faktisk fremdeles virker utrolig nok etter all mishandlingen den har gjennomgått).

Min PlayStation 2 :)

Og min PlayStation 3 med fluoriserende docking / usb-hub ;D

Les mer på PlayStation.com.

28 September, 2010

Music, formats and storage

For the past 6 months I've been pondering about ripping and encoding my entire music-collection into a digital archive for both safe keeping and easy access. Earlier, I only encoded my favorite tracks, saving precious disk-space. But in these days, disk-space is plentiful, and encoding is pretty straightforward.

Only thing I couldn't decide, was which encoding-format to use. I've been a happy user of MP3-technology for well over 12 years, but, I have noticed glitches / crappy noise and disturbances in certain MP3-codecs (which vary a lot across different music-devices / systems).

So eventually, it became a stand-off between FLAC and Vorbis. And since I really can't hear the difference between a 320kbit OGG and a FLAC file, the choice pretty much fell on Vorbis. Vorbis is also known as "Ogg Vorbis", an open-source audio-codec accepted by almost every modern MP3-compliant device available today (Vorbis can be encoded in bitrates ranging from 32 to 500 kbit/s, and is globally voted as the best sounding codec at comparative bitrates of 128-320kbit/s).

Beginning with my precious electronica music, I converted all tracks to 320kbit Constant BitRate (CBR) Ogg Vorbis files. Totaling 624 tracks, averaging 4 minutes, came to a total of 4.4 GigaBytes (which I'm currently listening to through Rhythmbox as I type :p). In other words, my ENTIRE electronica collection on ONE DVD+/-R disc! AWESOME!

Calculating the rest of my collection, I should be able to compress it all on 8-9 DVD+/-R discs.

I really understand why Spotify® uses Ogg Vorbis, it keeps a high quality of sound as well as saving disk-space, and from what I can tell, it doesn't strain the CPU very much either.

What makes me smile, is that EVERY device in my room can play Vorbis ;) My PlayStation3 system, my Asus Eee netbook running Ubuntu, my Pioneer DVD-player and my HTC Desire Android smart-phone ;D

Open-Source FTW! ;D

27 September, 2010

Googles 12-års jubileum



Google har nå indeksert og servert søketjenester på nettet i 12 år!

Jeg både gratulerer og hedrer IT-giganten ;) de har på sine 12 år levert et tallvis med tjenester / produkter som f.eks.: Google Documents, GMail, Google Android, Google Analytics, osv. som fremdeles brukes den dag i dag :)

Har selv vært en flittig bruker av diverse tjenester siden tidlig 2000. og søkemotoren siden dens tidlige dager (anno 1997). Denne bloggen serveres f.eks. via "blogger.com", og min personlige webside (http://www.pizslacker.org) driftes og kjører statistikk med Google-verktøy/-tjenester.

Gratulerer så mye med dagen! Og lykke til videre! ;D

Google-link:
http://www.google.com/support/forum/p/orkut/thread?tid=1162c40cce2c99ec&hl=en

25 September, 2010

NSM og nasjonal datasikkerhet



Norsk senter for nettovervåking holder til på Akershus festning. Deres oppgave er å overvåke nettaktivitet og stabilitet for bedriftsnorge og kritiske norske nett-infrastrukturer (strøm, vann/kloakk, statlige etater, osv).

Av det jeg kunne se på videoen laget av digi.no, brukes det mye åpen kildekode i deres monitor-systemer. Aldeles nydelig :) føler virkelig at de har gjort en glimrende jobb med systemet deres, kalt: "VDi". Nå har jeg hverken innsyn eller erfaring som gjør meg særlig egnet til å kommentere noe de egentlig gjør, men når de tillater filming, intervju og til og med informasjon om systemene deres, så gir dette i alle fall meg mer tillit til dem som stats-organ.

Jeg har rett og slett ikke troen på begrepet "sikkerhet gjennom obskuritet" som så mange store data-selskaper kjører som sikkerhetsprinsipp. Dette egger bare enda mer opp til at noen vil knekke disse systemene, finne svakheter og utnytte disse fullt ut så lenge det er mulig.

Åpen kildekode-miljøet oppfordrer til det de kaller "åpen utvikling", som i dagligtale betyr at utviklere deler informasjon, for felleskapets beste. På denne måten når programvaren brukbar stabilitet raskere, og bugs/sårbarheter blir raskere luket ut, fordi alle jobber mot et fellesmål.

En del folk vil kanskje påstå at mange selskaper som bidrar til miljøet ofte utelater viktig dokumentasjon og/eller forklaring på hva koden faktisk gjør. Som oftest er dette p.g.a. sikkerhetsmessige årsaker, men du kan enda få disse detaljene dersom du kontakter det aktuelle selskapet. I visse tilfeller kan det også hende at en må signere taushetsplikt (noe jeg selv har gjort i IT-jobber) for å sikre at detaljer om bedriftskritiske systemer der koden benyttes ikke spres i vinden.

Digi.no artikkel:
http://www.digi.no/852052/her-overvaaker-de-dataangrep-mot-norge

17 September, 2010

Global broadband speeds

...I thought it was a joke when people said we (Norwegians) have world-class Internet connection speeds. As I'm personally utilizing a 30Mbps fiber-connection, I've grown used to "instant access", and the concept of "lag" is far off from my list of worries nowadays.

But it wasn't always like that. I also remember the times of modem-breath, ISDN and yes, even radio-transmission-Internet (this was offered to people in my area who didn't have access to DSLAM-enabled phone-centrals (more commonly known as ADSL)). So I do have experience doing the "click-and-wait-game".

But after researching statistics, documents, ISP websites and various other information sources online, I was quite surprised.

Most countries in the world have to settle for average speeds UNDER 4Mbps! 4Mbps was the national MINIMUM for an ISP to even be able to call their service "broadband" in Norway 4-5 years ago(!). As this link shows, Norway along with a select few other European countries is in the top-percentage of high-speed broadband-Internet availability(!).

Only beaten by a small percentage of American ISPs offering 1Gbps uplinks.

Ironically, various ISP-companies in Norway are now considering building 1Gbps backbone-rings for public access.

I really, REALLY like current events! ;D Nerdalicious!

09 September, 2010

Canal Digital + Linux



Ja, faktisk, firmwaren (fastvaren, motsatte av mykvare) i satelitt-dekoderen til Canal Digital benytter nå linux-firmware :)

Oppdateringen onsdag 8. september oppdaterte programvaren i HD-PVR versjonen av Canal Digitals digitale satelitt-dekoder. (Med rykter om at flere modeller kanskje skal inkluderes.)

Oppdateringen/"oppgraderingen" :p forandret bl.a. utseendet på EPGen, alle menyer, måten opptak håndteres og en ny VOD-tjeneste (såkalt bredbåndsfilmleie, ikke helt ulik tjenesten Altibox allerede leverer) som skal ferdigstilles etterhvert ifølge Canal Digitals hjemmesider.

Jeg synes oppdateringen var rene mirakelet :) ikke bare fordi det er linux-basert, men p.g.a. reaksjonstiden på menyer og funksjoner i ettertid, nå kan jeg faktisk få sett ting og tatt opptak uten avbrudd. Dette var sjelden erfaringen med den "gamle" fastvaren. Den låste seg stadig, mistet innprogrammerte serie-opptak og reagerte KRAFTIG på signal-støy/-utfall.

For ikke å nevne det lekre bruker grensesnittet (menyer og EPG), mørk kontrast og tydelig utheving av informasjon ;D Jævlig bra arbeid godtfolk! Stå på!

N.B.:
Tidligere trodde jeg at dekoderen jeg hadde allerede kjørte Linux, men dette viste seg da å ikke stemme :p jeg var mildt sagt irritert på måten Linux hadde blitt brukt da, så det var en lettelse å finne dette ut XD

Canal Digital link:
http://parabol.canaldigital.no/Parabol/Aktuelt/Ny-software-pa-HD-PVR/

Digi.no artikkel-link:
http://www.digi.no/850810/bedre-parabol-tv-med-linux


Tillegg kl.21:16:

Etter å ha koblet dekoderen til routeren min med nettverkskabel, fungerte VOD-tjenesten. Jeg ble veldig spent på å prøve tjenesten for å se både utvalg og signalkvalitet. Tjenesten er visstnok et samarbeide mellom Canal Digital og SF Anytime.

Jeg kan med stor glede si at jeg er veldig godt fornøyd med både utvalg og kvalitet på signal. Film blir vist i full HD (hvis tilgjengelig) og sender både undertekstinger og Dolby Digital 5.1 lyd :)

Jeg ser i skrivende stund på filmen "The Fourth Kind" og hopper å støkker som bare det :)

Endelig bredbåndsfilmutleie med utmerket stabilitet og kvalitet.

Tillegg 16. sept kl.19:31:

Hva Canal Digital nå enn kjørte som firmware på sin HD-PVR tidligere, så er linux-versjonen SUVERENT overlegen! :) MAX fornøyd.

  • Null hakking når en skifter raskt mellom kanaler
  • Ingen lagg på VOD-tjenester (vel å merke: magisk oppløsning og lyd-kvalitet!)
  • Ingen programmerte opptak som "hikker" eller forsvinner
  • GUI (brukergrensesnitt) reagerer hurtig og oppdaterer informasjon skikkelig

06 September, 2010

Seamless upgrading


I heard of Ksplice a while ago, when it was still kind of beta-stage software. Recently I became aware that the version-number (currently: v0.9.9) is nearing a release-candidate, at which point most Linux-software are rock-solid stable.

The stability was further reimbursed by the fact that Canonical Inc. had included ksplice in the ubuntu repositories (aptitude, apt-get, etc.). Yes, I'm aware ubuntu is bleeding edge, but everything released by Canonical has been thoroughly tested and benchmarked to be as stable as possible if vanilla-configured (the ubuntu-way of course :p).

Ksplice is a piece of loadable kernel module-code (wiki: LKM) that makes it possible to patch a running Linux kernel in real-time(!), reducing the need to reboot to as little as possible (usually during major distribution updates/upgrades, which occur about 1-3 times a year).

So, I decided it was time to test it, I've been severely tired of rebooting everything all the time, and lastly notifying everybody that I'm rebooting one thing or another. *SIGH*

Now (as the picture shows) I'm using ksplice on my netbook (Ubuntu Netbook Edition) AND my Linux-server. No more hourly downtime.

"Lyse-feil" > nettmørke



Ja, så har det skjedd igjen da. Altibox AS hadde idag en feil i nettet i Stavanger som slo ut Altibox i hele landet(!). Jeg er ikke den første til klageluken når det gjelder Lyse/Altibox, men det begynner å bli litt irriterende å oppleve slike store feil hos en fiberleverandør med den driftserfaringen de har, begynner å bli en del år nå.

Selv kjente jeg ikke til problemet før rundt kl.10 da jeg fikk beskjed om at Internett-tilgangen hjemme ikke hadde fungert om morgenen.

Ok, feilsøkingsliste for Internett:
  1. Sjekk at tilgangen fungerer på mitt rom: Nei.
  2. Sjekk at tilgangen fungerer på linux-server: Nei.
  3. Sjekk at server/routere kan kontakte DNS: Niks!
  4. Ping gateway(er) fra linux-server og vent på reply: "100% loss".
  5. Prøv å gå online via WiFi på 3G-mobil: Android-browser sier "page not available".
  6. Prøv å gå online via 3G på mobilen for alternativ-sjekk: Ja, her fikk jeg tilgang.
Ringe Lyse for å høre om de har problemer? Ja, fikk raskt svar om at; "ja, det hadde de, særlig mye mer kunne de ikke si foreløpig". Nuff said, har jobbet i WAN-sektoren selv så vet at TTT ("Ting Tar Tid"). Det var bare å smøre seg inn med tålmodighet å se.

Etter en liten time resatte jeg fiber-boksen en gang for å freshe opp IPene i huset, så fikk jeg plutselig kontakt på linux-serveren som står rett ved aksessen. Jeg kunne da surfe til http://www.digi.no/(artikkel) og lese at Altibox hadde gått ut med driftsmelding om problemene. Og nå sitter jeg på netbooken å blogger om saken :p

21 August, 2010

NAT, Ports and DNS

I really, really love Linux :)

After setting up my own domain (june'08), I figured I'd set up a Linux NAT gateway to support the Internet availability @ home.

NATing (changing originator address to pass packets from one network to another) a public interface and a local interface on the gateway, forwarding and filtering inbound/outbound traffic from an internal LAN out through the public interface.

Not only did this have a nice balancing-effect with online connectivity, but concentrating all routers in the house to use the gateway as the local firewall also had a relaxing effect on the internal networks and their online connectivity as well :) Nicely-Nicely!

I can also route everything on the internal networks to act accordingly towards the domain and it's static IP address :p

INTERNET FTW! ;D

---

Additional, Aug 21st, 19:41-GMT+1:

Having everything (traffic) pass through, I also set up monitoring software on the gateway. And I must say, it's like running a mini-ISP :D topology-maps, connection-monitor, firewall-monitor :p my very own personal NOC.

16 August, 2010

Oracle VS. Google


Ja, fikk med meg at Oracle angriper Google og OSS ved å hevde at utviklingsspråket som benyttes i Android bryter patenter i Sun's Java implementasjon ("Dalvik VM" mot "Sun JVM").

Dette er et av hovedargumentene til Google på hvorfor de utviklet sin egen VM (Virtual Machine), kalt Dalvik, med tilhørende programmeringsspråk. Programmene laget i Dalvik, kompileres så til formatet "dex", eller "Dalvik EXecutable", som er Googles implementasjon av bytecode-konseptet som brukes i Java (og mange andre høynivå-språk).

Nå hevder allikevel Oracle at patenter de innehar som følge av oppkjøpet av Sun bryter med teknikkene og metodene brukt i Android/Dalvik VM.

Google på sin side vurderer søksmålet som "toalt grunnløst", nettopp fordi de i sin tid utviklet Dalvik og tilhørende språk BASERT på Java, men ny-utviklet fra grunnen av for å slippe lisensene forbundet med Java ME (Micro-Edition).

Blir spennende å se resultatet av denne patent-saken, men betviler sterkt at Google lar seg kue siden det dreier seg om et av deres mest suksessrike produkter noensinne.

Personlig mener jeg saken er ren og skjær flisespikking fordi Sun i sin tid ikke fikk gjennom noen avtale med Google på bruk av Java ME. Uenighet og adskillelse er gode vektpunkt for et søksmål og kapital-interesse, "alt for en del av kaka"

Det verste med hele saken er at Oracle ikke bare angriper Google Inc., men hele åpen kildekode samfunnet. Dette vil IKKE bli godt mottatt, og Oracle setter seg selv i et hjørne.

Skal de fortsette slik som dette er det vel heller ikke lenge før OSS-miljøet lager "forks" av både Java og MySQL (det finnes allerede alternativer: GNU Classpath, GCJ, GJI, osv).

Etter å ha lest uttallige kommentarer på artiklene, er jeg ganske enig med de fleste i miljøet. Android er noe av det beste som har skjedd Java siden web-applets, og kunne blitt brukt som et genialt PR-verktøy for Sun/Oracle Java, men den gang ei. Hvorfor JOBBE for pengene når en kan SAKSØKE seg til dem.

Nei, de vil heller melke pengekua. Samle inn det de kan av royalties på deres proprietære teknologi. Når skal dette patent-helvetet ta slutt!?

Jeg håper INDERLIG at slike lover ALDRI ser dagens lys i Skandinavia.

Digi.no:
http://www.digi.no/848895/google---oracle-angriper-friprog

ITavisen.no:
http://www.digi.no/848812/oracle-vil-stanse-all-java-paa-android

Det norske java-miljøet om rettssaken (computerworld Norge):
http://www.idg.no/computerworld/article175022.ece

Grunnløst angrep mot Java-bruk:
http://www.idg.no/computerworld/article175181.ece

09 August, 2010

Open-Source, bedrifter og fremtiden


"Hva var det jeg sa?"; ville jeg nok ha sagt dersom jeg ville skryte :p

Men jeg mener å ha sagt at bedrifter lente seg mer og mer mot åpen kildekode programvare (engelsk: OSS, Open Source Software) de siste årene. Lovende utsikter for OSS-samfunnet dersom flere og flere bedrifter anerkjenner dette programvare-samfunnet og dets produkter.

Selv er jeg en ivrig bruker både privat og ifm. jobb.

OSS-prosjekter har allerede ganske godt fotfeste innen IT-industrien, da spesielt innen nett-tilgang (ISP). Webtjeneren Apache har siden 90-tallet vært den mest brukte innen WAN-sektoren, og har en vesentlig større markedsandel fremdeles den dag i dag.

Men generelt sett slet OSS mest p.g.a. forbindelsen til FSF, et mer ekstremt prosjekt som fokuserer på "helt gratis programvare", mens OSS mener det er rom for både åpen kildekode og proprietær programvare på det samme markedet. OSS ser nå ut til å ha ristet av seg "ekstremist"-inntrykket mange satt med.
[wikipedia] Fri programvare (engelsk: free software) må ikke forveksles med gratis programvare; denne utbredte misforståelsen var opphavet til begrepet åpen kildekode (engelsk: open source), som opprinnelig var ment som en alternativ betegnelse.
[wikipedia] Etter at Bruce Perens skrev «the Open Source Definition», har derimot disse begrepene ikke vært 100% kompatible. Mens fri programvare i all hovedsak er til for å beskytte brukere mot opphavsrettslig utnyttelse, er tilhengere av åpen kildekode også i stor grad opptatt av å bruke åpen innovasjon som en metode for å oppnå høyere kvalitet.
Da er vi forhåpentligvis ferdige med synsing og sansing ifm. åpen kildekode.

Diverse prosjekter har vist gang på gang at denne typen programvare er mer stabil, letthåndterlig, og ikke minst billigere.

Eneste som pleier å skille dem fra kjøpsprodukter er som regel fremstilling og utseende, og i mitt hode (og forhåpentligvis mange andres) er ikke dette salgspunktet for data-applikasjoner.

At det ikke eksisterer dokumentasjon som mange vil ha det til, er ren tullprat. All dokumentasjon ligger som regel online, enten som filer eller hele websider, tro meg, jeg har lest MYE dokumentasjon fra FSF,GNU,OSS, osv., for ikke å snakke om enkelt-programmene jeg benytter HVER DAG.

Sannheten er at de fleste ikke gidder bruke tid på å lese manualer, dokumenter, osv. for å benytte data-behandling. Og med det poenget har jeg et spørsmål: Når har noen, noensinne, greidd å bare gjøre noe som helst uten innføring? Ha det i bakhodet.

Link til Computerworlds artikkel:


Wikipedia - "Åpen kildekode":

Computer-world artikkel, "Linux går en lys fremtid i møte":