28 September, 2009

Slackware 13.0 package tools

I was actually going to make my own how-to's on package-management and/or package building in Slackware 13.0, but someone beat me to it.., or at least the management-part that is. And I must say, it was an easy, most informative and straightforward read, cudos to the author.


The method(s) described in the how-to is how I've been doing it the later years, only I used 'slapt-get' instead of 'slackpkg' to update and upgrade. But I'm now using 'slackpkg' since it is part of Slackware Linux' original management tools.

I've also made an all-in-one 'automagic' slackbuild shell script I call "buildpkg", which, with a couple of modifications will be able to resolve dependencies, download, compile, package and install.., then build the original package for which the dependency was added for, making the whole process effortless.

The point of the script was to simplify (for me) the quite dubious and lengthy process of watching the compile-process for missing libraries/binaries/etc. when compiling data-intensive applications (like 'ffmpeg' and 'fuppes'), and rather store minor-errors in a logfile to weed out after compilation success. Thus saving me from a lot of blank-faced staring at the compile-output screen, when I really just want an app to compile and work without a lot of additional functionality, and rather just build the app as 'vanilla' as possible.

I mostly use it on media-applications, but I'm progressively modifying it to work on just about anything. In time, maybe it will be used by others. ;-)

Link:
http://beginlinux.com/ - Slackware 13.0 package-management guide

24 September, 2009

Linux' kjerne-utvikling

Linus Torvalds innrømmer at kodebasen i Linux-kjernen har blitt oppblåst og stagnerer utviklingen. Rapporter fra Intel som har fulgt med på Linux kjerne-utviklingen nøye de siste årene, tilsier at ytelsen har falt rundt 2 prosentpoeng hver hovedoppgradering. Som igjen vil si at ytelsen har falt rundt 12 prosentpoeng bare på de siste 10 kjerne-oppdateringene.

I 1994, da Linux 1.0 ble sluppet, var hele kodebasen på 176 250 kodelinjer, mens i versjon 2.6.40 er basen på hele 11 637 173 kodelinjer. Til sammenligning har Windows Vista opptil 50 millioner kodelinjer, men Linux har dog ikke alle applikasjonene innebygd i operativ systemet slik som har vært normen i Windows de siste 10 årene.

Linus legger til at utviklingen sannsynligvis ikke er til å unngå, men at det ikke går utover stabiliteten.

Linus har nå også gitt retningslinjer på hvordan man legger til ny kode til kjerne-prosjektet, siden det er dette som har satt en stopper for selvutvikling innenfor kjerne-gruppen, og heller lagt mye mer vekt på validering og kvalitetssikring av eksterne bidrag til kjernen. Blant punktene har han bedt bidragsytere å kommentere hva koden deres gjør, "for å gjøre det enklere å ordne og godkjenne bidragene i forhold til funksjonene brukere forventer å se".

Disse punktene har også gitt Linus mer frihet til å bidra med egen kode i kjernen igjen.

Link:

22 September, 2009

PS2-bakoverkompatabilitet ++

Nå har det lekket ut et dokument om et møte som fant sted i sommer, mellom Sony og Sega henholdsvis. Dokumentet omhandler bl.a. tidligere Dreamcast-titler og PS2-bakoverkompatabilitet som emner. Det blir også nevnt distribusjon gjennom PSN (PlayStation Network) av nevnte titler.

Hvis det viser seg å være fakta, vil dette bli en gullgruve både for Sony og Sega. Dreamcast ble ansett av konsoll-entusiaster som den beste konsollen noensinne, men drev aldri salgstallene den fortjente når den ble sluppet. Spill-titlene til maskinen derimot, skapte mye blest og bravado for nytenkning på en tid da det egentlig ikke var attraktivt å være så nyskapende som det er den dag i dag.

Oppdatering, torsdag 24 september:

Sega slapp maskinen i 1998, rett rundt hjørnet for slippene av f.eks. PlayStation2, Nintendo GameCube og Xbox. Maskinen var forut sin tid, med både web-browser og avtagbart modem (ja, MODEM), og diverse grafikk-teknologi andre konsoller bare kunne drømme om. Sega sluttet produksjonen av maskinen i 2001 p.g.a. for dårlige salgstall, og la ned hardware-avdelingen i selskapet for å fokusere mer på software.

Foruten Nintendo Inc., er Sega den eldste spill-leverandøren som fortsatt eksisterer etter konsoll-krigene på 90-tallet. Og de har noen av de største spill-samlingene av de større aktørene.

Link:

R2D2 gaming rig, KONGE!

Denne karen vet å kose seg med tecknologi og teknikk ;D Go On Mah'Son!

Link:
http://www.itavisen.no/

21 September, 2009

A brief little UNIX history video


WARNING: HIGH GEEK-/NERD-/TECH-FACTOR!


Well, if you're a *nix-geek like myself, this is very interesting stuff ^^,
As the creators of UNIX themselves portray, UNIX was in fact created with these points in mind:
  • Simplify computing (yes, computing was MUCH more complex before UNIX arrived).
  • Inspire computing communities / collaboration / sharing.
Do these points remind you of any ongoing projects related to OS development online, huh? (You should be leaning against the open-source movement and the Linux-kernel.)

Linux was created because Linus Torvalds found it frustrating that he couldn't run a similar POSIX-compliant system on his x86-based PC at home while studying at Helsinki - Finland. At his Uni, he used the Solaris-system (Sun's UNIX implementation) on SPARC-machines (Sun workstations). And since Solaris was proprietary and business-/academic-/scientific-oriented, it was also quite expensive.

So, Linux was in fact created because it was needed by it's author.

Similarly, UNIX was the brainchild of two computer scientists in the 60s, because it was NEEDED.

Allthough they had different reasons for needing the systems in mind, they were both created because of necessity.

Facebook legal twists

Today's article on cnet news tells about the outcome of a year-old class lawsuit filed against Facebook by 20 discontented users in the U.S. (filed August 2008).

Basically, the lawsuit centers around FB's advertising engine: "Beacon". Which --before it was shut down-- collected information from user-profiles, user surfing habits, user shopping habits and generally monitored FB-users' surfing-activities while logged-in to FB.

( I used keyword-blockers and/or router URL filtering to block this collector engine )

Not that it was difficult to block this monitor-service with simple browser plugins, but then again, if you don't know WHAT is monitoring you, or HOW it is monitoring you, how can you stop it?

The plaintiffs argued that Beacon was gathering information illegally and hidden from users. But the thing is, it was announced and described in Facebook's Statement of Rights and Policies when launched a couple of years ago. I can even remember it being mentioned in the early Privacy Policy.

Anyway, the lawsuit got settled, and Beacon is history. However, Beacon has evolved over the last two years, into what is now known as Facebook Connect. Which is FB's centralized authorization system, developed in collaboration with other major service-providers online, to provide a SSO (Single Sign-On) solution. Thus providing Facebook, and it's partners the web-habits of users using the SSO-system by collecting pagehit statistics collectively through all sites joined in the collaboration effort on Facebook Connect.

I just don't think people read statements, policies or user-agreements anymore. Everybody just expects everyone (including web-companies and the like) to abide to 'normal' society standards and rules with regards to privacy.

But the Internet is a completely open and public community network, you cannot expect to post personal information out there, and NOT expect anyone or anything to misuse this information to the fullest extent. And Facebook is by no means an exception, it is a PUBLIC social-port! Then again, it IS set-up to prevent people from seeing information you don't want certain people to see. But there are ways of obtaining this information without even visiting facebook.

You'd be surprised at how easy it actually is to get a decent amount of personal data via a search engine like Google...

In my opinion, if you're dumb enough to upload photography, personal information, and other sensitive data and/or information online, and *NOT* limit access policies on the content, you're garantueed a world of hurt and/or annoyances.

Good Luck Dumbasses...

Link:

18 September, 2009

Canal Digitals HD-PVR dekoder

Canal Digital har fått mye refs fra kunder og teknisk interesserte p.g.a. deres HD-PVR topp-modell i det siste. Leste nettopp en artikkel på digi.no, hvor en frustrert kunde ikke nådde frem med klagene sine på nettopp denne dekoderen.

Jeg har ikke opplevd noen spesielle problemer med min HD-PVR dekoder, men skal sant sies, har jeg eksepsjonelt bra signal på begge kablene fra LNB-hodet, som heller ikke bøyes 90 grader noe sted på veien til dekoderen. Selve parabol-antennen sitter godt fast-montert rett under husmønet sørvendt, så det har delvis god beskyttelse fra både vær og vind.

Det er så mange faktorer som påvirker kvaliteten til satellitt-tv. At disse problemene angår karen fra artikkelen sier jeg ikke, det jeg presiserer er at det kan være feil på andre deler av parabol-anlegget enn bare dekoder-boksen.

Men.., poenget jeg skulle frem med, er at i dag masseproduseres elektroniske artikler på rullebånd, og disse kvalitetsikres ikke på samme måte som for et par tiår siden da alt ble laget for hånd. Brannetterforskere presser også på nettopp samme historie, fordi de fleste elektriske branner nå i dag skapes av altfor dårlig laget og kvalitetsikret elektronisk utstyr.

Og poenget mitt blir da også at, dersom en kjøper en elektronisk duppeditt, kan en ikke være sikker på at den vil fungere på akkurat samme måte som f.eks. den kompisen ens har, selv om det både er fra samme produsent og er det samme apparatet.

Generelt sett, burde mange selskaper som utleverer elektronisk utsyr heller sett over sine egne garantier og løfter om apparatene de benytter, og undersøke om apparatene faktisk svarer til garanti-betingelsene de selv stiller.

Christian Schreiner fikk dekket sine utgifter av Canal Digital, og mottok ny dekoder etter artikkelen på digi.no. Men det er tragisk at store tjeneste-selskaper ikke gir sine egne kunder nok oppmerksomhet når det er snakk om misnøye, slik at den klagende part må ut i media for å få oppmerksomheten de egentlig har rett på.

17 September, 2009

Migrering, WinXP og Win7

For de fleste, vil det å bytte fra Windows XP, til Windows 7 være en smal sak. De fleste har fått det for seg at "...skal man bytte OS, bytter man maskin". I-og-for-seg, er jo det helt greit forsåvidt. Men for de som måtte ville oppgradere direkte fra XP til 7, så er ikke dette en dans på roser, tvertimot...

Microsoft har laget migrerings-verktøy for "Vista-til-7", og testing av dette verktøyet viser at en full sikkerhetskopiering og gjenoppretting kan ta alt fra et par timer, helt opptil 20 timer. Grunnene til dette er så mangt, bl.a. nye sikkerhetsrutiner og filsystem-sikkerhet som krever at Vista-generert data konverteres til nyere format. Dersom en er en superbruker, kan disse data-mengdene også fort løpe opp i et par hundretalls gigabytes. Om ikke terabytes.

Legg merke til at denne metoden for migrering gjelder brukere av Windows Vista.

Kritikere og eksperter skriver nå at migrering fra XP til 7 er nærmest sagt et mareritt. ALT må gjøres manuelt fordi M$ ikke har laget verktøy for denne hensikten. Hvorfor? Kanskje fordi de satser på at alle som bruker XP bare skal hive ut tusener av pengene deres for å få en "Windows 7 sertifisert" datamaskin. Om de virkelig forventer at dette skjer, vet jeg ikke.

De fleste jeg kjenner, gidder ikke å "migrere" fra et OS til et nytt. De benytter bare "kjøp-og-virk" metoden, fordi de da slipper mye av data-administreringen som inngår i en oppgradering.

Jeg kommer nok IKKE til å gjøre det slik, jeg kommer nok heller til å sjekke minimumskravene for Win7, og tilpasse systemet til maskinen jeg vil bruke det på. Jeg tar også backup av mine bruker-data nettopp fordi jeg ikke orker å gjøre alt arbeidet som må gjøres hver gang OSet må oppgraderes.

Hvis du finner på å oppgradere fra Vista til 7, må du også tenke på oppgraderingsavgiften til M$. Brukeravtalen Vista-brukere har godtatt, viser til at Microsoft reserverer seg retten til å kreve mer penger av deg som forbruker dersom du vil oppgradere til et nyere system. Og det er her de har vært eksepsjonelt smarte på det juridiske.

Skal du f.eks. oppgradere fra en Windows Vista Business lisens, må du oppgradere til samme Win7-versjon, altså: "Windows 7 Professional" (som har en grossist-pris på rundt $299 (rundt 1750NOK)). Riktignok får du rabatt når du eier en "Professional" versjon fra før, men dersom du ikke gjør det, og f.eks. har en maskin med "Windows Vista Home", må du nok ut med full grossistpris dersom du vil ha en "Professional"-versjon av Win7.

Eier du XP --samme hvilken versjon-- så må du uansett ut med full grossistpris for en Windows 7 kopi, en får ikke rabatt med XP, rett og slett fordi Windows 7 bygger videre på Vista-teknologi, og siden Vista faller under vedlikeholdsperioden til Win7, holder Vista-lisenser for rabatt-tilbudet.

Er du fremdeles personlig Microsoft-tilhenger?

Link:

HD-TV


Ja, har da endelig klart å oppdatere meg på underholdnings-fronten :P fått meg HD-PVR dekoder med rundt 12 nye HD-kanaler i tillegg til standard-pakken. Og må si det, bildekvaliteten er upåklagelig (HDMI 1080i), lyden er krystallklar og knirkefri (takket være S/PDIF og Dolby Digital).

Og muligheten for å ta opp programmer mens en ser på noe annet, en veldig etterlengtet funksjon fra min side, er bare helt genial. Har ventet årevis på slik funksjonalitet i TV-tittingen. Er veldig giret på muligheten til å bytte lydkanal (forskjellig språk, format, osv.) og fjerne underteksting. Disse var tingene jeg ergret meg mest over med VHF-sending av TV og VHS kassettavspilling før :P

"Analogue Is Dead"

16 September, 2009

Google scraps "lock-in" effect

I just love it when internal Google-projects go public. It's a thrill-ride every time, because of their ingenious engineers.

This time round, it's all about moving data in and out of Google applications. They see it as only fair to be able to bring your own generated data into the "Googleplex", or migrate data out of it, for usage elsewhere.

Thus, they started "The Data Liberation Front" as a support-group for this task.
The engineers have also started a blog to make it possible to send in "liberation-requests" (what type of data to liberate, and why it should be liberated).

One of the main reasons why Google created this group, is to eliminate the "lock-in" effect in their products. To put it bluntly, they're ACTUALLY GIVING YOU THE ABILITY TO LEAVE GOOGLE AS A SERVICE-PROVIDER!

Yes, they either have ENORMOUS trust in their user-base, or they just really believe in their product-lines (I think it's the latter). And this is THE reason why I favour Google over other proprietary web-service providers. They have always tried to keep their framework as open as possible.

Heck, I even remember a period when they hosted (what I like to call) "hackathon"-servers. Providing a LEGAL method of network-hacking/-penetration, just for the fun of it (or whas it... :P)

I consider Google Inc to be the ONLY big-time computer/web-technology giant that tries to comply with the saying: "the true meaning of hack".

Link:
http://www.dataliberation.org/

Android 1.6 'Donut' SDK



Android 1.6 'Donut' SDK is out!
Watch out for new APIs, functions, sub-routines and more ;D

New features added to the framework:
  • Re-designed search-framework (allowing searching within applications, etc).
  • Integrated "Text-to-speech" function (instead of installing a third-party library).
  • An updated user interface for Camera, Camcorder and Gallery.
  • VPN configuration options (allowing VPN connections to be made).
  • New battery usage indicator (presenting individual apps power-usage).
  • Accessibility framework (allowing for easy download and installation of accessibility-functions).
Developer-features:
  • Application-adaptation for different screen sizes.
  • Integration with the new "Quick Search Box".
  • Building gestures for your application.
  • How to use the newly integrated "Text-to-speech" function.
Link:

15 September, 2009

WebGL (3D Graphics Layer)




Apple's WebKit rammeverk har nylig fått støtte for såkalt "web-3D". Maskinvareakselerert 3D, generert fra rådata via en nedstrippet OpenGL (Open Graphics Layer) driver. Store nettaktører viser stor interesse for denne teknologien (de fleste utenom Microsoft), og vil samarbeide på rammeverket for å videreutvikle konseptet.

Teknologien er basert på Vladimir Vukicevics "Canvas3D"-element. Og Opera software har tidligere også jobbet med canvas-elementet i den kommende HTML-5 definisjonen.

HTML-elementene canvas, audio og video er jo i grunnen direkte konkkurrenter mot Microsoft's Media Player Plugin, og det nylig lanserte multimedia-rammeverket "Silverlight". Og er jo i så fall grunnene til at Microsoft ikke har uttalt seg om total integrering av HTML-5 standarden fra W3C.

Hvis M$ ikke kommer til å implementere full HTML-5 standard, kan de faktisk finne seg i situasjonen de fleste andre nettlesere befant seg i for noen år siden. ALT var Internet Explorer-basert, og man unngikk som regel å bruke alternative nettlesere fordi alt var IE-støttet. Det er dette de nå kan komme til å oppleve hos Internet Explorer-teamet, siden det er den eneste nettleseren som ikke har utlyst å inkludere alle disse nye multimedia-funksjonene.

Link:

2000/XP sikkerhet? LuLz? *sukk*

Som nevnt tidligere i et engelsk-språklig innlegg (linken i enden av innlegget), fortalte jeg om et nyfunnet sikkerhetshull som i grunnen burde være klassifisert som høy-risiko, men som Microsoft har ned-prioritert både for Windows 2000 og XP fordi "systemene er såpass utdaterte at det ikke lar seg gjennomføre å oppdatere disse", og anbefaler heller brukere av Windows 2000 å benytte den innebygde Windows-brannmuren som erstatning for en sikkerhetsfiks... ehm, javel?
Bare for å nevne det, så er hullet fikset i både Windows Vista, 7 og Server 2008.
Et genialt fremsteg av Microsoft, å faktisk snakke rett fra levra og fortelle at de ikke har tenkt å fortsette oppdatering av det mest brukte systemet på nettet den dag i dag.

Nå håper jeg at folk begynner å tenke på hvilket system og programvare-leverandør de har tenkt å benytte fremover i tid basert på dette. Men sannsynligheten er nok den at folk bare fortsetter å hive de hardt tjente pengene sine rett i Microsofts lommer uten spørsmål eller kritikk som vanlig.

Snakket mye med folk på jobb om dette, og de sier det samme som Microsoft, når XP fases HELT ut av sikkerhetsteamet, er det rett og slett bare å bytte til Windows 7, men det er her de fleste kommer til å få seg et realt sjokk. Microsoft har bare lagd oppgraderings-avtaler med folk som har kjøpt nyere datamaskiner med Windows Vista pre-innstallert, vi som sitter med XP på systemet og vil oppgradere og sikre oss selv, må nok dessverre ut med hele grossist-prisen for Windows 7 virker det som.

P.S.:
Nå kan feilen diskuteres hvorvidt den er kritisk eller ei, men når slike hull blir publisert offentlig, er det bare et tidsspørsmål før black-hats lager exploits og benytter feilen for alt den er verdt...

Linker:
http://www.hardware.no/

11 September, 2009

Abandoning 2000/XP security updates?


Oh well, it was fun while it lasted...


Seems M$ is dropping security patching for Windows XP, according to this security bulletin regarding a rather serious flaw in the Windows TCP/IP-stack, which enables a black-hat (or any person with technical expertise and malicious intent, really) to easily take control of any Win 2000/XP-computer running a listening service (webserver, SMB file-sharing, FTP, etc.). Microsoft on the other hand, chuffs the flaw, saying the vulnerability only affects a minor percentage of their business-oriented Windows 2000 user-base.

The only thing that concerns me (and a lot of IT critics online) about that statement, is that Windows XP is based on Win 2000. I wouldn't say the Windows XP user-base is a minor percentage, especially when statistics show that around 70% of web-users are on that platform. If this is a ploy from Microsoft to force people to switch to Win 7, it's a bad tactical move. Not only because of the security implications involved, but also Microsoft's decline on the customer-relationship front, as well as business-relations.

Will "The Silicon Valley Giant" ever learn from it's mistakes? Apparently, NO...

Ok, so the flaw isn't high-risk, but it CAN be without proper configuration! My point being that revoking security updates from a product currently in sale is a bad move.

EXPLANATION:
Ultimately, if an attacker gets through with specially crafted TCP-packets (TCP injection/prediction techniques), he can generate a DoS-condition, which halts the affected machine. But as the system can regain control again as soon as the attack-wave dissipates, Microsoft does not regard it as particularly high-risk.

All-in-all there are too many variables in the case-studies to make any good judgement on how risky this hole actually is, but it allows for DoS attacks, and therefore also the possibility of takeover.

Update, thursday september 17th:

To be fair, this flaw only affects advanced users with mal-configured listening-services, but that's not to say, once one IS taken over by a malicious black-hat, it can't be used for destruction and malcontent. If the machine resides in a network with other 2000/XP-machines, it's suddenly (probably) in the trusted IP-range, and therefore poses a risk as a penetration-tool to spread malware internally. There's a lot of vectors to exploit in this scenario, unfortunately... Let's just hope this flaw gets resolved before major abuse occurs.

Link:

Struping på 3G trafikk

Viser seg at operatørenes mobile bredbåndstilbud har blitt offer for egen suksess. Både Telenor og NetCom struper trafikkmengden ved å sette en maks mengde data ned per måned. Henholdsvis 149kr pr.mnd med grense på 5 gigabyte fra Telenor, og 129kr pr.mnd med grense på 2 gigabyte fra NetCom.


Tallene viser til begges minsteabonnement på mobilt bredbånd, men begge har også utvidede abonnementer med fri dataflyt for iPhone og Google Android (begge er da smart-telefoner med behov for høyhastighets-Internett forbindelse for full utnyttelse av funksjonalitet).

Jeg har personlig iConnect-abonnement med fri dataflyt fra NetCom siden jeg har mobiltelefonen HTC Magic (med Google Android OS), som koster meg 349,- pr.mnd, dette uten datamengde-grense. Telenors tilsvarende abonnement koster deg rundt 1099,- pr.mnd for fri dataflyt, 499,- pr.mnd uten fri dataflyt med en grense på 1000 megabytes.

Grunnene skal være nokså enkle. Bare Telenors datatrafikk i juli måned kom på over 150 terabytes!

Post- og teletilsynet (PT) er skuffet over prisøkningen på mobilt bredbånd, men innser at operatørene er nødt til å tjene penger på produktet.
Telenors tall fortsetter å synke gradvis, både med kunder som bytter operatører og altfor lite nye kunder. NetCom har allerede begynt med utrulling av LTE-baserte (4G) nettverk i Oslo. Mens Telenor fortsetter å bygge ut turbo-3G nettet sitt i stedet.

Link:

10 September, 2009

restored minicomputer, 80's-style


Reinhard Heuberger made a YouTube-video showing off the booting of his restored Digital Equipment Corporation PDP-11/23 SE minicomputer (last used in 1987).

I think it's pretty funny how futuristic looking the casing and controls of the machine are. But to be fair, it's a die-hard fan's restoration project, so it doesn't surprise me he built it to look like some machine taken from first-generation Star Trek. I think it's awesome! ;P However, I do not know how an original PDP-11 looked like, so for all I know, it's restored using mainly original parts.

Pay attention to how much the UPC is overwealming the sound of the 5Mbyte harddrive while booting :P classic. It almost sounds like an industrial-sized airconditioner for supermarket freezers.

Remember, this is a computer from the early days of computing. No fancy graphics, no sound feedback, no removable storage, no simplified standard controls. It's all completely hardcore low-level. I cannot imagine how much heat dissipiates and how much power is required to operate the beast. Like illustrated in the video, it takes both an A/C supply and a D/C supply just to wake it up.

These early computers are the reason why I prefer a CLI instead of a GUI. Gives me a nostalgic operator feel, since I never had the opportunity to become one ;D

The video showcases the programming language BASIC (RT-11* revision for the PDP-11) running on the PDP-11/23 minicomputer through a command prompt (serial connection?) on a Windows XP machine. It also depicts how ASSEMBLER can be used with RT-11* BASIC to operate a computer-controlled CNC-machine and request i/o from it.

* RT-11 - single-user operating system developed by DEC for their PDP-line of minicomputers.

As a little sidenote, I think Reinhard had to physically modify his machine to incorporate a serial interface to connect a terminal some of the PDP minicomputers had to be extended with serial interface cards to connect serial consoles. PDP minicomputers did not come with either serial consoles/screens for i/o as standard, instead they used punched paper tape, control knobs and flashing diode lights for manual debugging and operation. The most important tools a hacker of those days had to have, were the things we stopped using by the end of the 90s, namely: a pen and paper. To hold a general idea of what the PDP was doing, you had to organize the punched paper tapes you were feeding the reader, note the flashing diodes and keep track of the various manual monitor-functions to debug and operate the system.
MY point is really this: computers were created and used in the 60s/70s by huge corporations, universities and science labs, when all computers were nothing more than headless, insanely expensive calculator-boxes. It's the later development and pioneering which followed the footsteps that has made computers what they are today.

Additional ramblings:

The shell UI and control-functions looks a lot like BSD to me. I remember my first BSD-experience back in the 90s. I had received a CD-R containing FreeBSD from a fellow geek-buddy, who wanted to introduce me to the world of *nix. But until that point, I had no experience what-so-ever with POSIX-systems (were BSDs classified as POSIX back in the day? if somebody knows, please drop me a line, I'm really curious about this kind of stuff).

Anyway, my point being; FreeBSD at that time was as UNIX as you could get it without actually using UNIX. This also meant there were no auto-completion functions or "automagic" functions as we have in Linux today, no, everything had to be manually defined and executed. Suffice to say, the learning curve was STEEEEEEP...

I COULD have downloaded the FreeBSD manual, and do what I normally do when I'm presented with a new system. Read, read, search online, and read some more. But this was in the time before I became obsessed with low-level computer technology. I was like most other computer-users, not bothering about the internals of neither machine, nor software. I basically "just wanted things to work", not much unlike today's paradigm of "out-of-the-box" implementation. But, having the wealth of computer experience I have today, has shifted my viewpoint entirely.

Now, I usually start off an interest by tinkering, destroying, repairing and reading manuals, forums and wikis on anything technology-related.

09 September, 2009

AKIRA - The Movie ???

Norsk forfatter omskriver manga-serien "Akira" som spillefilm. Håkon Nygaard-Østby, som flyttet til USA som 19-åring, har vært med på kritikerroste storfilmer som "Iron Man", "Children of men" og en kommende storfilm: "Cowboys & Aliens" hvor hovedrollen skal spilles av, ingen andre enn, Robert Downey Jr.

Rettighetene til Akira-prosjektet ble overtatt av Warner Bros studioet, og skal visstnok ha vært utviklet av Leonardo DiCaprios produksjonsselskap Appian Way. Det sies også at DiCaprio selv vil spille hovedrollen som ungdomsavvikeren "Kaneda" fra serien.

Eneste negative jeg kan dra ut fra artikkelen om filmatiseringen, er at handlingsarenaen er lagt til New York istedenfor Tokyo hvor originalen baserer seg.

Serien har allerede blitt filmatisert som animasjon i 1988, og det tok fra 1982 til 1990 å ferdiggjøre sagaen som manga-tegneserie. Personlig er dette min favorittfilm når det angår anime, tett fulgt av "Ghost in the shell" og "Neon Genesis Evangelion" (sistnevnte er i produksjon som storfilm allerede).

Men at det har vært så mye norsk innflytelse i slike schlager-filmer visste jeg overhodet ikke.

GO ON OLA NORDMANN!

Link:

Var det jeg sa hele tiden...

"Så fort Sony nedgraderer maskinvare-komponentene i PS3 og tar bort funksjonalitet for å få ned prisen, vil maskinene gå som varmt brød fra butikkene."

Dette sa jeg for godt over 1-1/2 år siden, og stemte det ikke? F***in'hey! ;P

Mange sa Xbox eller Wii ville ta kronmedaljen uansett pris, fordi disse maskinene ikke satset 100% på hardcore gamere slik som Sony. Vel, det kan argumenteres mye for hvilken maskin som er "best", men realiteten er at ikke alle parter satser på samme målgruppe innen konsoller lenger. Det er i alle fall min oppfatning.

Bare det faktum at Sony faktisk har cashet inn på FPS-spill i konsoll-versjoner (Unreal Tournament III, Call of Duty: World at war, Battlefield 1943, osv.) tilsier at konsollene har kapret spillmarkedsandeler der de har slitt tidligere. Personlig tror jeg ikke dette er fordi spillene er så mye bedre på konsoller nå enn før, men at konsollene gir muligheten for USB-tastatur og mus. Ekstrautstyr for kontroll og input har revolusjonert konsollene, akkurat som PCen i sin tid (joysticks, gamepads, osv.).

Den klare fordelen med konsoll-spill er at du ikke må møte minimumskrav på maskinvare for å bare kunne spille spillene i det hele tatt. Det er her Sony har skutt gullfuglen, ved å klemme i mer databehandlingskraft enn noen konsoll har hatt noen gang tidligere. Det er ikke helt uten grunn at PlayStation3 har fått betegnelsen "supercomputer".

PS3 Slim vil nok cashe inn voldsomt for Sony etter dårlige salgstall for "Phat"-versjonene.

Det burde egentlig en salgsstigning på 400% si for seg selv. Microsoft satte ned prisen på Xbox 360 samme uke som Sony, men opplevde på ingen måte den samme stigningen i salgstallene.

Link:

Facebook for Android™

Hei hvor det går! ;D Da var native Facebook applikasjon på plass for Google Android også :P testing viser at denne offisielle appen er MYE mer stabil enn både "Babbler Lite" (som jeg har brukt) og andre tredjeparts applikasjoner.

Funksjoner inkluderer:
  • opplasting av bilder
  • posting på vegg
  • sending av melding
  • "Live Facebook Folder" *
  • status widget
* Live Facebook Folder - er en dynamisk mappe som du kan legge på skrivebordet i Android og bruke til å hente epost-adressene og tlf-numrene til dine Facebook-kontaker.

Alt-i-alt en veldig intuitiv pakke :) men alt kan forbedres, og de har opprettet en egen gruppe på FB hvor en kan sende inn "Feature Requests" til utviklerne.

Norge #2 på fiber i Europa

EU og interesseorganisasjonen FTTH (Fiber-to-the-home) Council Europe viser til måletall som plasserer oss rett bak svenskene på fibernettverkstilgang i Europa.

I Norge har nå over 200.000 husstander fibernettverkstilgang, mens svenskene kan skilte med opp mot en halv million tilknyttede husstander.

Undersøkelsen viser til både FTTH og FTTB (Fiber-to-the-building), sistnevnte brukes som regel i felleseide boligbyggelag/leilighetskomplekser. Min far benytter f.eks. felles FTTB tilkobling fordelt på 8 leiligheter i hans boligbyggelag.

Med altibox AS sin satsing på utrulling og fordobling av fibertilgang i Norge i nærmere fremtid skal vi ikke se bort i fra at plassen på listen kan hoppe.

08 September, 2009

Android Market v1.6

Misnøye for Googles "Android Market" har tvunget frem rammeverksforandringer.

Google har innrettet seg i forhold til utvikler-/bruker-feedback, og videreutviklet Android Market for neste utgivelse av Android plattformen (v1.6).

Anmerkninger om nåværende Android Market (fra Matt Halls blogginnlegg):
  • ikke mulighet for skjermdumper av applikasjonene.
  • lite intuitiv navigasjon i forhold til det som er mulig.
  • programvare som koster penger er bortgjemt.
  • dårlige betalingsmetoder for overnevnt programvare*.
Disse er nå utbedret i den nye versjonen.

* Betalingsmetoden for Android Market er i skrivende stund KUN Google Checkout. Yngre/vanskeligstilte brukere som av diverse grunner ikke har kredittkort, har foreløpig ikke mulighet til å kjøpe programvare via Android Market.

Link til digi.no-artikkel:

Lyse Tele AS > altibox AS


Lyse AS besluttet i 2002 for å satse på utbygging av fibernettverk under søsterselskapsnavnet Lyse Tele AS. Med dette fibernettverket, kunne de tilby høyere overføringshastighet, mer total-kapasitet og nyere nettverks-baserte tjenester for å konkurrere med andre norske tele-bedrifter som benyttet nasjonaltilgjengelig teknologi (ref. Telenors PSTN/ISDN-baserte (A)DSL-løsning(er)).

Lyse kobler i dag opp mellom 500 til 1000 nye kunder i uka. Bredbåndssatsingen i det nye århundret ble en braksuksess, og Lyse-konsernet har i dag flere telekunder enn energikunder. Rundt 141.000 tilknyttede kunder i over 200 norske kommuner.

Under utbyggingen av fibernettverket, opprettet de også tjenester som omhandlet IP-TV og VoIP. Internett, tv og telefon ble etterhvert markedsført (sammen med samarbeidspartnere) under produktnavnet "altibox", og siden disse tjenestene har blitt hovedinntekstkilden de senere årene, ble det også besluttet å forandre konsern navn til "altibox AS".

Link til digi.no-artikkel:

MySQL and the EU

There have been concerns about commercial distribution and utilization of the business-licensed MySQL variant among IT companies doing development on the SQL-engine in the EU. Basically, Oracle just recently bought Sun Microsystems (who created MySQL). And since Oracle has it's own SQL database, many companies are worried about further commercial MySQL development.


The debate now is about the EU stopping the Oracle-Sun merger, to force Oracle into debating the future of MySQL on a commercial basis. The proprietary MySQL license is the only thing making other database-companies able to improve and innovate on SQL-technology. But since Oracle has all power over the licensing, they have indirect power over all MySQL-forks out there, which makes a lot of people nervous.

Oracle is in the favourable position (for themselves) on database innovation with their own implementation of SQL AND MySQL development. The danger for everyone else now, is if Oracle takes the opportunity to create a database monopoly.

It is not a completely absurd thought, since MySQL puts quite the market and price pressure on Oracle.

As in the link below, quite a few people think the deal should be put off until they can pan out the future of commercially available MySQL.

It could be argued that MySQL does not pose a direct threat, since it's revenue hardly compares to Oracle DB. Actually, the MySQL revenue for 2008 barely came close to 1% of Oracle's.

There is also the argument that Oracle DB operates in a high-level market, with large deployments, heavy db-driven applications and the like... Whereas MySQL's main focus is on the web-market and web-applications. MySQL does not operate in many high-level environments, and is therefore not considered that big a threat to this market.

Whatever happens, Oracle is holding MySQL's fate in it's hands...

P.S.
This has nothing to do with the GPL-variant of MySQL. Commercial companies cannot use the GPL-variant, and so, it is not viable for commercial interest. That said, open-source projects can also suffer from this happening, because all the forks of the original MySQL that use the commercial license will also cease to be able to do further development. And who's to say someone will continue to develop MySQL once the commercial interest vanishes? So, if worse comes to worse, we all lose in the end some way or another.


Link to ComputerWorld.com:

07 September, 2009

All your O are belong to us

Hehe, seems Google's "UFO logo" was intended to be a 20th anniversary homage to the 80s game "Zero Wing".


And on Google's Twitter, they printed a series of point-separated numerals, corresponding to letters in the alphabet spelling the line "All your O are belong to us", a spin on the Zero Wing character "Cats", saying: "How are you gentlemen. All your base are belong to us."

Spotify @ Android

Hellz yeeeeah ;D

Finally, Spotify for Android is out!
But alass, my phone gives me the error-message: "Download unsuccessfull" after trying to get it from Android Market.

F***ing Market...

Update, 09:00

Ok, I found a solution to my problem, since it seems a lot of ppl have had the same issue. I basically found a truncated URL-link, downloaded the APK package to my SD card, and installed it via "AppManager" (available at Android Market).

Update, wednesday september 9th

Seems this has been an issue for quite a few people, and on the download-page for android @ spotify.com, they've even put this in the introductory text, offering a manual download link to the APK package as of version 0.3.20 (telling developers and owners of the G1-version to proceed using this manual option. I suspect my troubles are caused by me updating the phone firmware with a minor version-update from HTC, but I really hope this gets resolved in the 1.6-release).

04 September, 2009

A 'Bit' of computing history...

"Reboot for UK's oldest computer"


As the title entails, Britain's oldest computer --the Harwell-- is being sent to the National Museum of Computing at Bletchley, where it will be restored to working condition.

Originally, the Harwell was built to crunch numbers on general atomic theory, by 3 people at the Atomic Energy Research Establishment.

BBC News, interviewed Dick Barnes (one of the three who built the system), who said the research was --officially at least-- for civilian nuclear power projects. But they had connections to the nuclear weapons programme.

Not being the first computer built in the UK, it had one of the longest service lives.., being in active use from 1951 up until 1973. Allthough the later years were spent as a teaching-system dubbed "WITCH" (Wolverhampton Instrument for Teaching Computing from Harwell). After this it went to be displayed at the Birmingham Science Museum, before being put to storage at Birmingham City Council Museums' Collection Centre.

The Harwell had a number of predecessors: The ACE, or "Automatic Computing Engine" (parts of which are on display in London's Science Museum), the Electronic Delay Storage Automatic Calculator (EDSAC) which was broken up, and Manchester's Small-Scale Experimental Machine (SSEM) nicknamed Baby, which has been rebuilt but not using original parts.

What distinguished Harwell from similar computer-systems at the time, was the ability to manage stored computing. Unlike it's predecessor, the Colossus, Harwell was relay-based, with 900 Dekatron gas-filled tubes, each holding a single digit in memory --similar to modern RAM-- but having 900 bits, didn't even come close to modern memory sizes we use today, which is an indicator on how fast the development process of IT has come to this day and age.

Harwell sported a single memory array, used as temporary memory, while also utilizing paper tape for both input and program storage. These machines are now considered 1st gen. (vacuum tube machines, 1940-1956), because this was a time well before transistors and ICs (Integrated Circuits) became mainstream. Transistor-based computers are considered 2nd gen. (1956-1963) and IC-based computers 3rd gen (1964-1971).

We are currently using 4th gen. computers (microprocessors, 1971-present). IBM presented the home computer for the average joe in 1981, and Apple soon followed in 1984 with the Macintosh.

While modern personal computers generally come with at least 2 GigaBytes as standard [2^30 bytes x 2], the Harwell sported an approximate grand total of 0,000125 GigaBytes (or approx. 125 KiloBytes), which was HUGE in the vacuum tube-era. I actually remember a time in the 80s when 30 MegaByte harddrives were top-of-the-line :P
A little sidenote on 'Bits' and 'Bytes':

In computer storage, sizes are calculated using so-called 'bitwise' algorithms.

And just recently, Apple Mac OS X switched to a new bitwise algorithm to better represent the actual storage available in a system. A lot of Linux distributions did the exact same thing (including my distro of choice; Slackware).

But in computer storage theory, there are two main ways of calculating sizes.

Storage calculation is based on the octal-system (8 Bits = 1 Byte): 1 GigaByte = 1024 MegaBytes (or 1.073.741.824 Bytes to be more exact).

While transfer calculation is based on the metric system (1:1): 1 GigaBit = 1000 MegaBits

This is also one of the reasons why storage-OEMs have differentiating space-specs on their products. Haven't you bought a 1 TeraByte harddisk drive lately, and realizing after you formatted it, that it does not hold as much as specified?

Basically, OEMs use transfer-specific calculation for storage amounts, and not storage-calculations as they should. And none of them specify this on their packaging or manuals, because it's not required by law.

OEMs, when faced about this issue, explain it this way:
"...if we WERE obligated to print this information on our products, it wouldn't be economical to manufacture drives at all...", which I believe to be utter FUD.

Another reason why harddrives don't always sport the specified amount, is that a filesystem requires a certain amount of disk-space to store filesystem-metadata, and thus removes this reserved space from the defined accessible storage amount on the drive (usually around 5-10%).
So.., in conclusion, this is the perfect example on how mind-bogglingly progressive computer-development has been over the last decades.

Links:
http://news.bbc.co.uk/ - article about the rebuild.
http://news.bbc.co.uk/ - video about the rebuild.

03 September, 2009

IE6? Come on...

Seriously, are people I know still using Internet Explorer 6? If you are, and if you do.., please, PLEASE! CHANGE YOUR DEFAULT BROWSER, RIGHT NOW!

I cannot press enough how big a security-risk using IE6 is. It is coined by some people in IT, as being "...the planet's most insecure Web browser...".

As Amy Bazdukas, Microsoft general manager for Internet Explorer, said: "Friends don't let friends use IE6", and if M$ is scrutinizing IE, then it's worth all the hype.

Link:

02 September, 2009

Your PC is now Stoned! ..again

Yes, there exists a bootkit, for Windows, called "Stoned Bootkit" XD

It is an open-source homage to the "Stoned boot sector virus" from the DOS-days of the 90s. After succesfully infecting the MBR of a DOS-system, the MBR would contain code that had the ability to announce (with a 1 in 8 probability) the words:
"Your PC is now Stoned."

To elaborate a little.., a bootkit is similar to a rootkit, only it doesn't infect sub-systems of an OS. Instead, it resides in the MBR (Master Boot Record) of a Windows system-disk. This enables it to bypass drive-encryption, because Microsofts drive-encryption does not cover the MBR of a drive. Also, since it is an MBR-virus, it can be bootstrapped to the Windows-kernel (core of the operating system), making it even harder to locate, and/or remove completely.

In other words, it is an awesome piece of code, able to 'pwn' your machine completely.

It is interesting for a number of users, specifically:
  • Black hats
  • Law enforcement agencies
  • Microsoft Corporation
For both malicious use, and clever playful use (white hat hacking).

And what's even better, it's the first bootkit that:
  • attacks Windows XP, Windows Vista, Windows 7 and Windows Server 2003/2008 with one single Master Boot Record.
  • attacks TrueCrypt full volume encryption.
  • has integrated FAT and NTFS drivers.
  • has an integrated structure for plugins and boot applications (for future development).

A perfect example of "doing it, because we can" mentality.
LOL! & LuLz!



Link:

01 September, 2009

v3.0 PS3 firmware released!

Finally, after a couple of months, the long-awaited system update to the PlayStation3 has arrived! Version 3.0 ;D New features include:

  • New management for trophies, sub-trophies and add-on content.
  • Multiple audio-out (simultaneous connections).
  • New messages/friendlist indicator.
  • "Placed-anywhere" PlayStation Store shortcuts.
  • New customization functions (avatars, dynamic themes with animated objects).
All-in-all, it promises to deliver the experience Sony has promised for some time now :)

Info-link:

Update, wednesday september 2nd:

I really enjoyed the new FW. The 'multiple-audio-out' function was awesome! Now I can mix analogue audio in through my Audigy-card on my media-machine, through an ADC (analogue-to-digital-converter), and pipe the audio-stream to whatever machine I want to receive it on my network :) Lovely.

I also liked that the fonts have been re-sized on 1080p resolution, now I can read everything. When I think about it, the whole XMB UI has been re-sized to better fit high-def resolutions.

The new message/friendlist indicator (located in the top right corner) also made the whole interface more symmetric and clearly set. It no longer blocks the view of the clock when you either switch to pause-mode in-game, or generally just use the 'PS'-button to check your battery-level or whatever.