Archive for March 19, 2014

Farlig Google Docs-phishing


Phishing går i stor grad ut på å lure folk til å fylle inn innloggingsinformasjon på en falsk side, som tilsynelatende er identisk med en annen populær innloggingsside.

Mange går på slike forsøk, men det trente øyet vil som regel se at URL-en i adressefeltet ikke stemmer overens med tjenesten som er forsøkt etterlignet.

TEMA: phishing

Nå sprer en ny phishing-metode seg på nettet. Gizmodo rapporterer om at den først starter med at man mottar en epost med emnefeltet «Documents», hvorpå man må klikke på en lenke i eposten for å åpne et Google-dokument.

Det snedige nå er at bakmennene har laget et Google-dokument som praktisk talt er identisk med Googles innloggingsside. Siden dokumentet befinner seg på en google.com-adresse, er det ikke like lett å avsløre ved å se på URL-feltet, og mange vil derfor la seg forlede til å logge på med brukernavn og passord; særlig om du ikke er logget på Googles tjenester fra før.

Når det er gjort, blir innloggingsdetaljene fanget opp av bakmennene, og så får du som bruker se et ordentlig dokument. Dermed er det vanskelig å oppdage at man nettopp har gitt fra seg vitale detaljer.

For de fleste nordmenn er det selvsagt sjelden man bør klikke på en lenke i en epost merket «Documents», men se opp for etterligninger i tiden som kommer.

Gjør weben til en avansert spillplattform


Til tross for at weben opprinnelig ble laget for å lenke sammen tekstdokumenter, har plattformen i svært mange år vært en plattform for spill. Etter hvert som nye webteknologier har kommet på plass, har spillene blitt stadig mer avanserte. Sentrale teknologier på denne veien har skript- og programmeringsspråk på serversiden, JavaScript i nettleseren, plugins, CSS, canvas, lyd- og videostøtte i HTML, samt WebGL.

Fordelen med webbaserte spill er at de alltid er oppdaterte og ikke krever noen installasjon. Ulempene har først og fremst vært knyttet til ytelse. Men avstanden til systemspesifikke spill har krympet betydelig de siste årene, samtidig som at behovet for å bruke plugins har blitt kraftig redusert.

Dette har ført til at flere sentrale aktører nå begynner å se på weben som en spillplattform likeverdig med blant annet pc-er og spillkonsoller, og likevel helt uten bruk av pluginteknologi.

3D-grafikkteknologien WebGL, som nå støtte støttes av de fleste nettlesere, har vært den utløsende faktoren. Men også utviklingen av asm.js, en optimalisert delmengde av JavaScript som blant annet C/C++-basert programvare kan kompileres til, regnes som en viktig bidragsyter på grunn av svært god ytelse.

I går kunngjorde Unity Technologies at neste versjon av selskapets spillmotor, Unity 5, skal støtte nettopp WebGL og asm.js. Spill basert på Unity 5.0 skal dermed kunne kjøres direkte i nettleseren, uten bruk av plugins. Dette skriver CNET News.

Fordi Firefox har optimalisert støtte for asm.js, vil spillene trolig fungere aller best der. Men også Google har vist interesse for asm.js.

Løsningen til Unity blir demonstrert under Game Developer’s Conference (GBC) i San Francisco denne uken. Unity 5 vil trolig bli gjort tilgjengelig i løpet av et par måneder, skriver VentureBeat. I forbindelse med GBC demonstrerer Unity Technologies en WebGL-basert utgave av spillet «Dead Trigger 2» fra Madfinger Game. Det kan sees i videoen nedenfor.

Epic
Unity Technologies er likevel ikke det første selskapet til å kunngjøre en kommende spillmotor for weben. Allerede for en uke siden presenterte Epic Games videoen nedenfor, som demonstrerer at spillet «Soul and Swing Ninja» kan kjøres i Firefox med den som omtales som «near-native speeds». Mozilla presiserer i dette blogginnlegget at det foreløpig dreier seg om 67 prosent.

Spillet er basert på spillmotoren Unreal Engine 4, som kan kjøres på weben uten bruk av plugins. I likhet med Unity 5, støtter Unreal Engine 4 teknologier som WebGL og asm.js.

Mozilla skriver at alle moderne nettlesere kan kjøre asm.js-basert innhold, men at Firefox så langt er den eneste nettleseren som er optimalisert for dette. Også den noe eldre Epic Citadel-demoen, som er basert på Unreal Engine 3, fungerer klart best i Firefox.

– Dette teknologien har nådd et punkt hvor spill som brukerne kan hoppe inn i via en weblenke, og som nesten ikke er til å skjelne fra spill de kanskje nødt til å vente på for å laste ned og installere, sier Brendan Eich, teknologidirektør hos Mozilla og skaperen av JavaScript, i Mozillas blogginnlegg.

– Ved å bruke Emscripten for å krysskompilere C og C++ tiol asm.js, kan utviklere kjøre spillene sine med med nesten «native» hastighet, slik at de kan tilnærme seg weben på samme måte som enhver annen plattform.

Spillet «Monster Madness» fra Nom Nom Games var det første kommersielle Unreal Engine 3-spillet som har blitt publisert på weben.

– Ved å bruke asm.js kunne vi få Monster Madness til å kjøre på en dag, og vi er ekstremt fornøyde med hvordan weben har utvidet vår kundebase, faktisk så mye at vi nå planlegger å utvide teknologien til hele vårt spillportefølje, sier Jeremy Stieglitz, teknologidirektør i Nom Nom Games, i Mozillas blogginnlegg.

Oppdatert klokken 17.31: Mozilla har kommet med en offisiell kunngjøring om Unity-samarbeidet.

Åpner Google-tjenester for .NET-utviklere


Google kunngjorde i går lanseringen av et klientbibliotek som skal gjøre det enklere for utviklere av Windows-applikasjoner integrere disse med Google-tjenester. Biblioteket. Google APIs Client Library for .NET, gir .NET-tilgang til drøyt 50 av Google programmeringsgrensesnitt.

Googles tjenester er fra før tilgjengelige via metoder som ReST, HTTP og JSON, men klientbiblioteket skal tilby en hel del ekstra funksjonalitet. Dette inkluderer blant annet håndtering av autorisering (OAuth 2.0), opp- og nedlasting av strømmende media, samt støtte for serieforespørsler («batching»).

Biblioteket støtter både .NET Framework 4, Windows Store-applikasjoner, Windows Phone 7.5 og 8, samt Portable Class Libraries.

En introduksjon til hvordan man kommer i gang, finnes her.

Lykkes med Internett til skip


Dualog leverer sikker og stabil internettilgang til fartøy verden over. De melder om tre internasjonale kontrakter tidlig i 2014.

Forsyningsskiprederiet Deep Sea Supply legger Dualog til grunn for alt samband mellom rederi og fartøy. Rederiet opererer i Nordsjøen, Vest-Afrika og Vest-India. Dualog-systemet skal være installert på 40 fartøy innen utgangen av 2014.

Tankskiprederiet Torm skal installere Dualog på rundt hundre tankskip og bulkskip. Fartøyene opererer globalt. Torm har hatt internettilgang på alle sine fartøy siden 2008.

Rederiet Saga Shipholding har valgt Dualog-tjenesten «Crew Surf» for å sikre mannskapene pålitelig tilgang til personlige nettjenester.

Ifølge Dualog er det nå rundt 2200 fartøy i internasjonal skipsfart som kjører deres tjenester om bord.

Tjenesten til Dualog går ut på å sørge for at det alltid er dataforbindelse over satellitt mellom et fartøy og selskapets datasentral i Danmark.


Tankskipet Torm Sofia. Torm skal bruke Dualog til alle slags nettjenester mellom rederiet og et hundretalls fartøy.

Ombord sørger Dualog for servere og nettverksutstyr. Programvare i serverne, «Connection Suite Ship» komprimerer data som skal sendes over satellitt, dekomprimerer data fra sentralen, og håndhever rederiets regler for hvordan nettforbindelsen skal brukes. Programvare i datasentralen, «Connection Suite Server», har en tilsvarende funksjon på land: Data til fartøyet komprimeres, data fra fartøyet dekomprimeres, og rederiets regler håndheves.


Dualogs løsning gjør at IT-tjenester ombord kan integreres mot systemer på land.

Konfigurasjon og regler for nettbruk i fartøyet defineres og håndheves av rederiet gjennom en nettleserbasert tjeneste, Dualog.net. Rederiet kan styre påloggingsregler, tillatte eller forby tjenester og nettsteder, innholdstyper og så videre. Det kan settes opp regler for e-post, web, lynmelding, tale over IP, filnedlasting, surfing og så videre. Mannskapet kan tildeles kvoter for dataoverføring, og kan også få tilbud om økte kvoter mot betaling.

Tryggere alpint med satelitter

Aksel Lund Svindal hadde en stygg ulykke under utfortrening i 2007. Det gikk nesten et år før han stilte i konkurranse igjen. Heldigvis gikk det bra – han vant til og med verdenscupen sesongen etter.

Skadene var mange og alvorlige på den tiden.

Det internasjonale skiforbundet, FIS, ble presset fra offentligheten og media til å gjøre noe. Ord ble til handling.

Matthias Gilgien på Norges idrettshøgskole fulgte ekstra nøye med da Lund Svindal og de andre kjørte verdenscupavslutning i uka som gikk.

Gilgien bruker satellitter og avanserte målemetoder for å gjøre alpinsporten mindre farlig.

Salzburg, Davos og Sognsvann

Etter sesongene med høy skadefrekvens, ga FIS Universitetet i Salzburg i oppdrag å gjøre dybdeintervjuer med utøvere, trenere og andre eksperter for å finne ut hva som forårsaket skader.

De fant ut at tre faktorer var avgjørende: ski, preparering av snø og løypeutforming, eller løypestikking.

Snart var tre store forskningsprosjekter i gang. Målet var at sporten skulle bli tryggere, men ikke kjedeligere.

Universitetet i Salzburg tok for seg hvordan nye, og bedre ski påvirket skadeforekomsten. De fremste ekspertene på snø befant seg i Davos.

Men hvem kunne finne ut mer om løypestikkingen? Her trengtes en som hadde peiling på landmålingsteknologi, biomekanikk og alpint.

Vedkommende måtte også være en del av et solid forskermiljø. En umulig kombinasjon? Niks.

Matthias Gilgien er nemlig utdannet landmåler, har studert klimafysikk, idrettsvitenskap og biomekanikk. I tillegg kommer han fra de sveitsiske fjellene, der det er opplagt at man blir alpinist, hvis man skal satse på idrett.

Riktignok ble ikke Gilgien alpinist – han ble landslagsutøver og senere landslagstrener i orientering. Men interessen for alpint var alltid til stede.

Analyser av hele løp

– Det er merkelig hvordan ting plutselig kommer sammen. Jeg var i gang med en doktorgradsstudie om noe annet, men da denne muligheten kom, var både jeg og veileder klare på at jeg måtte bytte prosjekt, sier Gilgien, som skal disputere ved Norges idrettshøgskole våren 2014.

Høsten 2010 satte han i gang. For å finne ut hvordan terreng og løypestikking påvirker skaderisiko, måtte Gilgien analysere hver sving i hele løp – uten at utøveren ble påvirket i av måleutstyr i konkurransen.

Andre forskere bruker videobaserte metoder i sine analyser, men da får de bare sett på 2–3 svinger av gangen. Den metoden gir dem for eksempel ikke mulighet til å forklare forskjellen på skader som skjer i begynnelsen og slutten av løypa.

Så hvordan måler man kontinuerlig en person som farer ned en fjellside? En som holder 100–150 kilometer i timen i flere minutter?

Ingen hadde noen gang målt hele storslalåm-, super-G- og utforrenn i verdenscup med en valid metodikk, altså en målemetode man kan stole på og bruke i vitenskapelige beregninger.

Opp i rommet

Gilgien forlot grantrærne langs løypa, der det er vanlig at trenere filmer sine løpere, og reiste opp i verdensrommet. Ikke bokstavelig talt, men han ville benytte satellitter i stedet for kameraer for å måle løperne.

Teknologien er ikke så mystisk som det kanskje høres ut som. Vi har nemlig denne teknologien i smarttelefonene, bilene og klokkene våre. Vi snakker om GPS.

Gjennom å feste en GPS-antenne på hjelmen og en mottaker på ryggen til en skikjører, kunne Gilgien gjenskape linjen utøveren kjørte og farten han holdt.

For å få så nøyaktige målinger som mulig, kombinerte han signaler fra både amerikanske og russiske satellitter, ikke bare en av delene, slik som er vanlig.

For å eliminere feilkilder, hadde han også en fast GPS-mottaker som sto stille ved løypa. Ved å plassere linjen utøveren kjørte i et tredimensjonalt terrengkart, fikk Gilgien en nøyaktig gjengivelse av svingene utøverne skulle gjennom.

Han sammenlignet GPS-metoden med en gullstandard, det vil si en annen målemetode som bekreftet at den nye metoden målte riktig, før han gikk til verks i verdenscupsirkuset.

Kontroll med store krefter

FIS fraktet Gilgien og hans team til verdenscuprenn gjennom sesongene 2010/2011 og 2011/2012.

Foran hvert løp fikk han sette opp utstyret sitt og måle utformingen av terrenget, løypa og portene.

En toppalpinist, som ikke skulle konkurrere, ble utstyrt med GPS og kjørte gjennom løypa som om han konkurrerte, rett før rennet begynte.

Det ga Gilgien en nøyaktig modell av utøverens kjøring.

Han ville undersøke kreftene utøverne ble utsatt for gjennom løypa. Men hvordan kan man måle krefter utfra en GPS på hjelmen til en alpinkjører?

Vel, det kan man ikke. Så Gilgien utviklet nok en ny metode. I stedet for å måle kreftene, kunne han beregne dem. Han hadde målt opp terrenget og laget et eksakt 3D-kart over løypa og linjen testløperen hadde kjørt.

Gjennom å vite hvor langt fra bakken hodet til skikjøreren var, kunne han beregne kjørerens tyngdepunkt – og så finne ut hvor stor belastning han ble utsatt for. I tillegg ga det ham kunnskap om hvor stor luftmotstanden og friksjonen mellom ski og snø var.

– Det viste seg at kreftene løperne utsettes for kan ha mye å si. For eksempel kan det være større sjanse for at en løper blir skadet dersom belastningen er stor over lengre tid, enn hvis han kjører i høy hastighet i et parti som ikke utsetter ham for like mye krefter, forklarer Gilgien.

Alle grener er like farlige

Andre studier tyder nemlig på at skaderisikoen er større når løperen er sliten. Og jo lenger han er utsatt for stor belastning, jo mer sliten blir han.

– For å forklare hvor stor belastning det er snakk om, pleier jeg å si at du skal ta to voksne menn på ryggen, stille deg i hockey, og så få noen til å komme og riste litt skikkelig på deg, illustrerer forskeren.

Gjennom denne studien fikk man for første gang også sammenlignet de forskjellige disiplinene. Gilgien fant ut at storslalåm, super-G og utfor per minutt kjøring er like farlig. 

Altså er skadeforekomsten per minutt kjøring like stor, men mekanismene som fører til skader er antakelig ganske forskjellige. I et fall i utfor er energien som påvirker løperen dobbelt så stor som i storslalåm, mens kreftene i en sving i storslalåm er nesten 1,5 ganger større enn i en utforsving.

Utfor har omtrent dobbelt så mange hopp som super-G, men svevetiden for hvert hopp er omtrent like lang. Det betyr at hvis noe går galt i et hopp i super-G, kan konsekvensene være like store som i utfor.

Kan ikke bare legge om løypene

Og så er det vel bare å legge om løypene, så de blir tryggere? Niks. Det er sjelden så enkelt, hverken i forskningsverdenen eller i alpint.

– Er farten for høy, kan vi flytte en port et par meter til siden. Men da risikerer vi at løperne blir utsatt for stor belastning over lengre tid. På samme måte kan reduksjon av kreftene føre til høyere hastighet. Altså kan den ene faktoren utslette effekten av å endre den andre, forklarer Gilgien.

Avhandlingen er levert, men sveitseren jobber videre med prosjektet på Norges idrettshøgskole. For tiden knytter han sammen dataene fra prøvekjøreren, terrengmodellene og løypestikkingen med skadene i de rennene han har undersøkt de siste årene.

På denne måten kan han finne ut hva som kjennetegner stedene der skader oftest skjer, og om det finnes fellestrekk. Deretter kan man gjøre noe med de stedene der skadene pleier å skje.

Faktorene er mange og kompliserte, så forskerne må gå forsiktig fram før de gir absolutte råd om løypeutforming. De må rett og slett forske mer.

– Men når vi er ferdige med neste steg, og knyttet våre data mot skadene som har skjedd, kan vi gi solide råd til FIS. Vi gir dem mer fakta å basere sin kunnskap på, slik at de bedre vet hva som forårsaker skader og hvordan man kan endre løypene på steder der utøvere ofte blir skadet. Det vil føre til at alpinsporten blir sikrere, håper Gilgien.

Vil overvåke overvåkerne

Førsteamanuensis Donn Morrison ønsker å finne en automatisert metode for å se om innlegg på mikroblogger som Twitter og Sina Weibo blir slettet av utenforstående, og i hvor stor grad de blir det. Sina Weibo er det kinesiske svaret på Twitter.

Hver enkelt bruker kan lett se om ett av deres innlegg blir sensurert. Men hvordan finner du ut om dette bare gjelder deg, eller om det faktisk skjer systematisk? Det vil Morrison, som jobber ved Norges teknisk-naturvitenskapelige universitet (NTNU), undersøke.

Systematisk sletting

Det er mulig å sjekke om bestemte ord i innleggene fører til at de blir slettet, men Morrison har en annen fremgangsmåte.

– Kommunikasjon over sosiale nettverk online har en bestemt struktur. De fleste av dem består av klynger av samfunn som igjen har karakteristiske forbindelser, ifølge Morrison.

Dersom noen griper inn utenfra og sletter en del av innleggene, vil denne strukturen bli endret på grunn av de manglende linkene. Da er det, i hvert fall til en viss grad, mulig å analysere seg frem til om noen utenfra har blandet seg inn og slettet innlegg.

Høy grad av sensur i Kina

Morrison undersøkte et nettverk med 1000 brukere. En av antakelsene er at selv i et såpass lite nettverk vil strukturen være noenlunde den samme som i større nettverk med atskillig flere brukere.

Foreløpige forsøk viser at Morrison med opptil 85 prosent sikkerhet kunne lese av om et system var sensurert. Dette gjaldt når 10 prosent av postene ble slettet.

Noe av forskningen ble utført mens Morrison var post doc ved Digital Enterprise Research Institute i Galway i Irland, og resultatene er blant annet publisert i New Scientist.

Undersøkelser fra kinesisk kontrollert territorium i 2012 viser at 16 prosent av innleggene på Sina Weibo blir sensurert vekk. I noen provinser er det langt flere, som i Tibet, der 53 prosent av innleggene ble kuttet.

Dette fant forskere ut ved å analysere 67 millioner innlegg på Sina Weibo og Twitter. Politisk sensitive ord førte til en høy grad av sensur.

Fremgangsmåten var helt annerledes enn Morrisons, som tar for seg endringer i nettverkets struktur. Kanskje kan metodene utfylle hverandre.

Utfordringer

Morrisons tall kommer fra et simulert nettverk, og kan ikke uten videre brukes i den virkelige verden.
 
I forsøket er det blant annet tatt for gitt at han har hatt tilgang til alle data, og ikke bare et utvalg. En utfordring er også å finne det rette utvalget av data. Det er ikke sikkert du får presise svar om du bare har tilgang til deler av kommunikasjonen over det sosiale nettverket.

Selv om Morrison venter at det blir vanskeligere å finne ut om og i hvilken grad et sosialt nettverk online blir sensurert når han begynner å sjekke data fra virkelighetens verden, håper han at han skal få tilgang på ekte data, slik at han kan se hvordan metoden virker i praksis.

Referanser: 

Morris, Donn, Toward automatic censorship detection in microblogs, Department of Computer and Information Science, Norwegian University of Science and Technology, Trondheim, Norway

Tweet patrol knows when censors delete online posts, New Scientist

 

 

Stort ID-varp kunne vært avverget


En lang artikkel i Businessweek i forrige uke – Missed Alarms and 40 Million Stolen Credit Card Numbers: How Target Blew It – er, så vidt digi.no erfarer, den fyldigste oppsummeringen hittil av hva som gikk galt i desember i fjor da utenforstående brøt seg inn i nettverkene til den amerikanske detaljistkjeden Target og fanget opp data om 40 millioner kredittkort og personinformasjon om 70 millioner kunder.

Historien dreier seg om en stor detaljist som gjorde mye riktig, men som likevel tapte overfor inntrengere som var verken var spesielt kreative, avanserte eller dyktige.

Target hadde investert tungt i IT-sikkerhet. De hadde en egen IT-sikkerhetsstab på mer enn 300 årsverk. De hadde brukt 1,6 millioner dollar på å implementere en løsning fra FireEye, et framgangsrikt IT-selskap som leverer snokvarslingsteknologi til CIA og Pentagon, og til etterretningstjenester verden over.

For å betjene FireEye-løsningen hadde Target etablert en overvåkningssentral i Bangalore i India og en sikkerhetssentral i Minneapolis.

FireEye etablerer et slags parallelt nettverk av virtuelle maskiner rundt nettverket som skal beskyttes. I teorien skal unormal virksomhet i dette parallelle nettverket oppdages, og ukjent kode skal fanges opp. Unormal trafikk og ukjent skal ikke slippe inn til det virkelige nettverket.

Spørsmålet er da hvorfor dette avanserte vernet ikke virket. Businessweek har brukt seks journalister til å finne svaret. De har intervjuet et titalls interne kilder i Target, og et antall sikkerhetseksperter med kjennskap til alt fra FireEye til internasjonale «carder»-nettverk, det vil si der kredittkortinformasjon og personopplysninger kjøpes og selges.

Svaret kan oppsummeres slik: FireEye-systemet virket som det skulle. Ildrøde alarmer ble sendt og mottatt. De ble oversett. Angrepet kunne vært stanset automatisk. Targets operasjonssentral lot det passere.

Forarbeidet til selve angrepet ble ikke fanget opp av FireEye: Angriperne har antakelig brukt uker på å snoke rundt i Targets interne nett, etter å ha misbrukt passord og brukernavn fra en av Targets leverandører.

30. november kom selve angrepet, i form av forsøk på å installere ondsinnet kode i nettverket. Koden hadde tre oppgaver: Fange kredittkortnummer fra alle kasseapparater i alle Targets 1 797 utsalg i USA, lagre disse på utvalgte servere i Targets nettverk, og så sende opplysningene ut til eksterne servere.

Forsøket på å installere ondsinnet kode ble umiddelbart fanget opp av FireEye-systemet. Koden ble holdt tilbake i det virtuelle nettverket. IP-adressene til serverne der angriperne ønsket å få tilsendt data, ble registrert. Det ble sendt ut flere alarmer, alle på høyeste nivå i FireEye-skalaen.

2. desember ble angrepskoden oppgradert: Den nye koden ble holdt tilbake av FireEye-systemet, og høynivåalarmer ble sendt ut igjen.

Alarmene er loggført. Loggene er gjennomgått av Target. Verken alarmene eller at Target har gått gjennom loggene er bekreftet offentlig.

Ingen i Target reagerte på alarmene.

Dataoverføringen tilbake til angripernes servere startet 2. desember, etter oppgraderingen av angrepskoden.

Hadde Targets IT-sikkerhetsfolk reagert på alarmene kunne de ha stanset dataoverføringen, og ingen data hadde kommet på avveier, verken de 40 millioner kredittkortnummer eller de 70 millioner sett med øvrige personopplysninger.

Target ville vært spart for over 60 millioner dollar i direkte utgifter for å informere kundene om ID-tyveriet og annen oppfølging av innbruddet, samt over 90 hittil meldte søksmål. Target måtte offentlig love å erstatte alle kunder for ethvert tap grunnet misbruk av deres kontoer.

12. desember ble Target varslet av føderale etterforskere at de hadde vært utsatt for et stort datainnbrudd. Saken eksploderte i mediene, og 15. desember måtte Target bekrefte miseren offentlig. Kundene reagerte ved å ty til konkurrentene: Targets overskudd fra julehandelen ble nesten halvert sammenliknet med året før.

Analytikere tror Target kan ha tapt flere milliarder dollar til sammen.

Hvorfor reagerte ikke Targets IT-sikkerhetsfolk på alarmene?

Snokvarslingen til FireEye kan innstilles slik at ondsinnet kode slettes straks det oppdages. Targets folk hadde valgt bort denne innstillingen. Det skal ikke være uvanlig: Mange er skeptiske til å overlate alt for mye til automatikken i et nytt sikkerhetssystem.

Det fordrer at man følger nøye med på alle varslene fra systemet. Det ser ikke ut til at man gjorde det.

Lederen for Targets overvåkingsenhet, Brian Bobo, sluttet i jobben i oktober. Han har ikke villet kommentere forholdet.

FireEye-systemet var ikke alene om å varsle at noe galt kunne være på gang.

Informantene til Businessweek forteller at Targets antivirusløsning, Endpoint Protection fra Symantec, advarte om mistenkelig trafikk i flere dager i slutten av november. Symantec-løsningen pekte også ut en av de samme serverne som FireEye advarte mot.

Et «uinteressant angrep»
Leder for trusselvurderinger i Intels IT-sikkerhetsselskap McAfee, Jim Walter, sier til Businessweek at koden og metoden i angrepet mot Target er «alt annet enn avansert, og helt uinteressant». Han er enig i at dersom Target hadde hatt et godt grep om sikkerhetsarbeidet, ville de sett angrepet, og greid å gjennomføre mottiltak.

Angrepet var laget slik at informasjonen hackerne ville ha tak, ble mellomlagret på tre ulike servere i USA før den ble sendt videre til en mottaker i Moskva. Poenget med dette var å unngå trafikk direkte til Moskva fra nettverket til Target.

Sikkerhetsselskapet AlienVault Labs har analysert denne delen av koden: De sier at brukernavn og passord for de tre serverne der informasjonen ble mellomlagret, kunne leses av koden. Dersom Target hadde reagert på FireEye-varslene 30. november, og analysert koden, kunne de ha oppdaget brukernavnene og passordene, og selv logget inn på serverne. Det ville gitt etterforskningen et viktig forsprang.

De føderale etterforskerne som tok kontakt med Target 12. desember hadde gjort denne analysejobben, og funnet fram til serverne, i henholdsvis Los Angeles, Ashburn i delstaten Virginia og Provo i delstaten Utah. Der lå all informasjonen fortsatt: Angriperne hadde kopiert den til Moskva, men ikke slettet sporene etter seg.

Fra Moskva gikk informasjonen videre til Odessa i Ukraina, et kjent sentrum for internasjonale «carder»-nettverk. Det er ingen mistanke om innblanding eller medvirkning fra russiske myndigheter. Dette er ren, organisert kriminalitet, uten nasjonale bindinger.

Facebook trenger beta-testere


Facebooks meldingstjeneste har for mange blitt den foretrukne måten å holde kontakt med venner, kolleger og familie på.

Nå frir selskapet til Android-brukere som vil være med å teste en betautgave av Messenger-appen. Til tross for at Facebook nylig bladde opp store summer for meldingstjenesten Whatsapp, ser det altså ikke ut til at videreutviklingen av deres egen Messenger-app legges ned med det første.

Siden sommeren 2013 har selskapet hatt et lignende opplegg for Facebook-appen, der over én million brukere fra over 150 land har vært med på å teste kommende funksjonalitet før alle andre.

Alle kan delta i betatestingen av Messenger-appen for Android. Ved å delta dette programmet, vil man få tilgang på ny funksjonalitet tidlig, på bekostning av at appen ikke nødvendigvis vil være 100 prosent stabil, poengterer selskapet i et blogginnlegg.

For å være betatester for Facebooks Messenger-app, må man:

  • Bli med i denne Google-gruppen
  • Følge lenka som er postet i gruppa og trykke på «bli tester»-knappen
  • Oppdatere Facebook Messenger-appen
  • Aktivere automatiske oppdateringer – appen blir oppdatert flere ganger i uka.

Facebook tar så i mot tilbakemeldinger fra betatesterne i nevnte Google-gruppe.

Google Play med film og musikk i Norge


Google rullet i går kveld ut langt mer innhold i den norske utgaven av selskapets markedsplass, Google Play. Tidligere har Android-applikasjoner vært det eneste innholdet, men nå har det kommet store mengder musikk og også en hel del film som kan kjøpes eller leies. Dessuten er strømmetjenesten All Access nå åpnet.

Google Play Music har egentlig vært tilgjengelig i Norge lenge, men med begrenset funksjonalitet. Brukerne har kunnet laste opp inntil 20 000 av sine egne musikkfiler og spille dem av fra nettskyen i en nettleser eller en Google Play Music/Musikk-app til Android eller iOS. Men nå har det blitt mulig for brukerne i mange flere land enn tidligere å enten kjøpe enkeltspor eller album for nedlasting, eller å bruke All Access-tjenesten som gir tilgang til strømming av 20 millioner musikkspor for i utgangspunktet 99 kroner i måneden. Bitraten er på 320 kilobit per sekund, men reduseres dersom det ikke er tilgjengelig båndbredde for dette.

Google Play All Access er altså en direkte konkurrent til Spotify og WiMP, men i alle fall på pc-er behøver man ikke å laste ned noen egen klient – alt fungerer direkte i nettleseren.

Musikk man kjøper, kan deles med inntil tusen venner via Google+ som kan spille av hele sporet én gang. Musikken legges også i brukerens eget Google Play-bibliotek, hvor alt innholdet kan gjøres tilgjengelig «offline» på mobile enheter. Men musikk man kjøper kan også lastes ned som en 320 kbit/s MP3-fil inntil to ganger.


Android-appen for Google Play Movies (Filmer).

Film
Med Google Play Movies kan man også leie eller kjøpe film. Det loves at det meste av innholdet er i HD-oppløsning, 720p eller bedre. Utvalget er foreløpig ganske begrenset. I den store kategorien «Action og eventyr» er den knapt 300 filmer, de fleste relativt gamle. Men man finner også sporadisk nyere filmer, som «Gravity» og «The Veronica Mars Movie».

Selv om de fleste av filmene både kan kjøpes og leies, er det andre som enten bare kan leies eller bare kjøpes.

Leieprisene er normalt på mellom 29 og 49 kroner, men vi har også funnet filmer til 19 kroner, men da er det ikke HD-oppløsning. En hel del av filmene ser ut til å mangle norske undertekster.

Det er vanskelig å se de store fordelene ved kjøp av film via Google Play. HD-utgaven av nevnte «Gravity» koster 169 kroner. I enkelte butikker får man kjøpt BD-utgaven til lavere pris enn dette. Da har man også en fysisk kopi man kan spille av hvor som helst og låne bort til venner.

Filmene man kjøper i Google Play har man ikke helt fri tilgang til. De kan kun spilles i nettleseren til en pc eller via Google Play Movie-appen på en mobil eller nettbrett. Riktignok støttes «offline»-avspilling, dersom man laster ned filmen eller episoden i appen, men det er ingen fil man selv kan flytte rundt på. Filmene kan lagres lokalt på inntil fem enheter om gangen.

Prisene er likevel omtrent som det man finner i Apple iTunes, som nok anses som hovedkonkurrenten.

Det er uansett gledelig at Google endelig har fått lov til å komme med et slikt tilbud også i Norge. Ofte det er forhandlinger om innholdsrettigheter som hindrer eller forsinker lanseringen av slik tjenester internasjonalt. Men i alle fall innholdet i filmdelen av tjenesten har betydelig forbedringspotensial. Hvor er for eksempel tv-seriene? I USA kan man se på «Game of Thrones» i Google Play Movies. Vi har heller ikke funnet noen norske filmer.

Google skal i løpet av noen uker også offisielt lansere Chromecast-enheten i en rekke nye land. Om Norge er blant disse, er uklart, men det er ikke utenkelig at Google Play-utvidelsen er en forberedelse på dette.

– Nå kommer Office til iPad


Alles øyne rettes mot Satya Nadella, når han torsdag i neste uke vil holde sin første pressekonferanse siden han overtok etter Steve Ballmer.

Sky og mobil
Fra scenen i San Francisco skal Microsofts ferske konsernsjef redegjøre for visjonen om å styrke selskapet innen sentrale forretningsområder som nettsky og mobil.

Utvalgte medier har fått vite at tema for dagen er «skjæringspunktet mellom skyen og mobil databehandling», trolig med flere produktnyheter.

Pressekonferansen avholdes i San Francisco den 27. mars, bare få dager før Build-konferansen i samme by.

Office til iPad
Det inkluder avdukingen av kontorpakken Office i en iPad-utgave, sier kilder til The Verge.

En slik utgivelse har det gått rykter om iallfall siden 2011, men nå kan tiden være moden.

Microsoft-kjenner Mary Jo Foley skriver også om dette i en artikkel for ZDnet. Hun legger til at ryktene skal ha det til at iPad-utgaven kanskje bare vil inkludere Word, Excel, Powerpoint og OneNote.

Det virker mest sannsynlig at programvaren vil kreve et aktivt Office 365-abonnement, slik tidligere utgaver til Android og iOS gjør.

Ballmers strategiomlegging før han gikk av handlet om å slutte med programvare, og heller konsentrere seg om «tjenester og enheter».

De nye Office 365-pakkene representerte i så måte et hamskifte og et helt ny forretningsmodell for Microsoft. Heller enn å kjøpe en pakke man installerer på én pc, skal kundene få kjøpe abonnement som er maskinuavhengig.

Ingen av lekkasjene antyder at Satya Nadella har staket ut en kurs som skiller seg noe særlig fra strategien hans forgjenger Steve Ballmer la frem, men nettopp den nye Microsoft-sjefens planer og visjoner kommer til å bli fulgt med argusøyne, når han i neste uke får sin ilddåp.

Og allerede få dager senere sparker Microsoft sin store utviklerkonferanse Build i gang, også det i San Francisco.