Med web 3.0 vil man ikke mere arbejde på internettet, men internettet vil arbejde for en!

Et af de største problemer for deltagere i informationssamfundet er informationsoverfloden, et problem som forøges med det evigt voksende internet. Forventningerne til Web 3.0 lover en lettelse i at finde de for dig relevante informationer (se links til andre web 3.0 blogs nederst).

Internettet har givet os adgang til millioner af ressourcer uafhængig af deres fysiske placering og sprog. For at håndtere dette kæmpe bjerg af information er der kommet nye forretningsmodeller som f.eks. søgemaskiner. Men kvaliteten af disse søgemaskiner er ikke altid i top

Den nuværende manuelle søgefase

Søgemaskinerne udfører effektivt lingvistiske analyser baseret på fritekst-søgninger. De producere lister af resultatet, som kræver, at den menneskelige bruger skal lave den intelligente slutning af hvilke af dataene, der er relevante. Typisk ved at kigge de enkelte søgeresultater igennem manuelt.

Lærende og tilapssende softwareagenter

På Web 3.0 vil informationsoverfloden blive håndteret ved at tilføje "intelligens" til internettet. Softwareagenter vil indeholde forskellige niveauer af "intelligent" opførsel fra simple reaktiv til at være tilpassende og lærende. Disse agenter kan lære hvad brugeren foretrækker og ikke foretrækker. Det vil beskytte brugeren fra ikke relevant information og han vil kun blive belemret med information af reel værdi for ham.

Afløser det nuværende pull paradigme

I stedet for den nuværende allestedsnærværende pull paradigme, som kræver at brugerne aktivt finder information og eksekverer programmer, vil vi arbejde os hen mod at delegere disse opgaver til autonome softwareagenter. Softwareagenterne der finder og sammenstiller relevant information fra mange forskellige kilder og organiserer resultatet på en for dig relevant måde

Forstås af maskiner

Web 3.0 vil lægge et ekstra lag, der kan forstås af maskiner, ind på internettet og derved tillade agenter og applikationer at tilgå et bredt spekter af heterogene ressourcer, behandle og integrere indholdet og producere output med forøget værdi til brugerne.

Uden menneskelige involvering

Computere arbejder i dag i en verden, hvor de udveksler milliarder af bits af data, men har ingen mulighed for at relatere betydningen af denne information til anden information og har derved ikke mulighed for at kommunikere rigtigt.

Hvis computere har mulighed for at forstå information uden menneskelig involvering, vil de kunne udføre mange opgaver for os.

Væk fra den manuelle søgefase

Informationen er i dag dannet af multiple brugere, leveret fra forskellige services og spredt over et utal af forskellige sites. Hvis man for eksempel har behov for information omkring musikeren Thomas Helmig: Hans koncertplaner, billetter til disse koncerter, de sange han har skrevet, sange han har produceret, priserne på album, anmeldelser af hans album, hans biografi og diskografi, bøger om ham osv. vil denne information ligge spredt ud over et utal af sites. Med den eksisterende teknologi er vi stadig i den manuelle søgefase af internettet. 

Web 3.0 vil levere den nødvendige infrastruktur, til at gøre det muligt for service og applikationer på nettet at samarbejde og integrere al information om Thomas Helmig til en samlet hele, som præsenteres for brugeren uden denne selv skal bladre gennem et væld af søgeresultater.

Andre Web 3.0 blogs:

http://www.version2.dk/artikel/11232-web-30-giver-os-personlige-agenter
http://www.version2.dk/artikel/10982-web-30-er-her
http://www.version2.dk/artikel/10596-dansk-for-maskiner-paa-web-30

Kommentarer (18)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Brian Jacobsen

Det er en besnærende tanke at vi en gang for alle kan definere vores interesser og så bare læne os tilbage og i al fremtid være opdateret på Thomas Helmig.
Det er mulig at man som IT kyndig kan beskrive sine interesser præcist nok til at en computer kan forstå og finde det rigtige, men hvad med hr. og fru Danmark? Og hvad med alsidigheden?

Det er nu muligt at skræddersy sin nyhedsoplevelse via DRs hjemmeside. Man kan se præcis de nyhedsindslag man på forhånd ved er interessante. Holder man sig udelukkende til det, man på forhånd ved er interessant, bliver ens verden meget lille.
Meget (det meste, måske endda) af det jeg interesserer mig for i dag er noget jeg har opdaget ved en tilfældighed. Enten ved at en ven har vist mig det (musik, film, osv) eller ved at jeg er kommet forbi når jeg browser (oser?).

I disse krisetider hyrer virksomhederne kun folk der passer 100% på stillingsbeskrivelsen, dvs. er fuldstændigt "inde i kassen". Den manglende evne/erfaring i at være "udenfor kassen" kommer til at koste virksomhederne dyrt på lang sigt.

Hele denne web 3.0 snak lyder som en automatiseret "bliven i kassen". Hvor i al den 'push' begejstring er der plads til det nye og det ukendte? Skal det udelukkende leveres af betalende virksomheders 'Se også' links?

Det er helt fint at få leveret relevante nyheder og information automatisk, men der skal være plads til det skæve og det overraskende - også i fremtiden.

  • 0
  • 0
Andreas Kirkedal

Jeg efterlyser lidt flere detaljer.
DanNet eller WordNet er ontologier og der findes ikke en ontologi der dækker alt. RDF-logikken er ikke synderlig ekspressiv og mange web sider bruger det ikke.
Hvis softwareagenter skal kunne lære, afhænger det typisk af statistiske modeller, men de kræver store mængder rå eller bearbejdede data som kan være svært og dyrt at anskaffe og statistiske modeller kan ikke uden videre opdateres med ny information, men skal trænes igen fra bunden.
Lingvistiske analyser i søgemaskiner er ikke sofistikerede nok til at udføre disse opgaver og der er mange uløste problemer.
Søgemaskiner følger netop bag-of-words modellen og det udelukker i praksis sofistikerede lingvistiske analyser bygget på syntaks eller logik.

  • 0
  • 0
Anonym

Dette syn på web 3.0 er ikke en utopi - det er det modsatte. Den repræsenterer en både falsk og naiv opfattelse af verden og hvad mennesker vil.

Den repræsenterer det samme tankesæt som Googles aggressive profilering søger. Ønsket om at kende dig bedre end du kender dig selv.

Disse agenter kan lære hvad brugeren foretrækker og ikke foretrækker. Det vil beskytte brugeren fra ikke relevant information og han vil kun blive belemret med information af reel værdi for ham.

En sådan agent giver ikke mening, fordi en sådan forståelse giver kun mening for den aggressive markedsføring - illusionen om at man kan blive den "ultimative trusted agent" som dækker kundens behov og bliver det vigtigste i kundens liv.

Det er en falsk opfattelse fordi mennesker ikke er deterministiske og behov ikke er præ-definerede og givne.

Vi læser ikke aviser fordi vi søger information vi ved vi savner, men for at blive inspireret og informeret. Den "perfekte" avis som kun består af det som Google tror vi vil vide, er selvopfyldende profeti - vel og mærket teknologens selvopfyldende profeti som reducerer mennesket til det som en eller anden teknisk model repræsenterer.

Vi lever sammen med de beslutninger, vi træffer hver dag - og de ændrer os på godt og ondt. Det kaldes fri vilje og uden den er vi ikke mennesker.

Det ville være en destruktiv vision at designe teknologi ud fra den antagelse at mennesker er deterministiske. Det er en cirkelantagelse - for hvorfra ville behovene komme, hvis teknologien antager at de allerede er givne !?

Teknologi skal designes ud fra at mennesker har fri vilje - og hjælpe dem med at agere som frie mennesker. Demokratier og markeder bygger på den simple forudsætning. Dårlig teknologidesign kan sagtens ødelægge begge dele - det kræver kun at man designer ud fra illusionen om at man kan, må eller bør forstå et menneske istedet for at give mennesket mulighed, retten og ansvaret for at udtrykke sig selv.

Alternativet til dette billede om "alvidende agenter" er blot "formålsspecifikke agenter".

Hvis du vil på ferie, så kan du sætte en agent i gang med at finde gode tilbud på basis af input fra dig.

Når du har besluttet dig for at tage til Firenze, så kan du sætte en agent i gang med at finde muligheder i Firenze.

Når du har valgt at besøge Ufizierne, så kan du sætte en agent i gang med at reservere indgangen så du ikke skal stå 2 timer i kø og huske dig på aftalen, når tiden nærmer sig.

Agenten kan ikke gå fra viden om dig og ende med at have reserveret indgang og planlagt din tid allerede inden du overhovedet har besluttet om du vil til Italien.

Lige så lidt som staten kan eller skal fortælle dig hvordan du skal leve dit liv, fordi det ender med at gøre alle fattigere, så skal teknologien heller ikke - for det er i andres interesse, ikke i din.

  • 0
  • 0
Henrik Hvid Jensen

Det tror jeg at markedet løser.

Hvis de agenter du vil anvende ikke opfylder dit behov, vil der være et marked for agenter, der bedre opfylder dine behov.

Det er nødvendigt for markedet at lære hvordan disse agenter bedst designes og der vil uden tvivl være en del fejlskud rundt omkring.

De første generationer af disse agenter eksisterer jo allerede internt på mange hjemmesider (Typisk Amazons viden om dine indkøb kombineret med andre kunders købsmønster, giver dig relevante foreslag). Næste trin er at Amazon laver samarbejdsaftaler med andre hjemmesider, så deres agenter også tager købsmønster på disse med i betragtningen.

  • 0
  • 0
Henrik Hvid Jensen

Du har ret i at de grundliggende teknologier er XML, OWL (http://soanetwork.dk/Dokumenter/OWL_Whitepaper.pdf) og RDF (http://soanetwork.dk/Dokumenter/RDF_whitepaper.pdf)

Udviklingen på internettet går ikke så hurtigt som mange gerne vil have, så fordi alle hjememsider i dag ikke bruger RDF og OWL så er det ikke ensbetydende med at de aldrig vil blive brugt. Både RDF og OWL bruges i flere og flere løsninger og du peger selv på Dannet / Wordnet som et godt eksempel.

I ovenstående svar til Brian har jeg et eksempel med Amazon. De første af Amazons aftaler med eksterne parter kan godt være enkeltstående en-til-en løsninger, men en fornuftig arkitektur hos Amazon vil stille krav om en standardiseret udveksling og der vil RDF være en oplagt kandidat

  • 0
  • 0
Henrik Hvid Jensen

Jeg er enig med dig i at der ikke kommer een alvidende agent, men flere "formålsspecifikke agenter".

Disse formålsspecifikke agenter vil i modsætning til i dag trække på information fra flere og flere hjemmesider fra forskellige samarbejdspartnere og derved ud fra statistik, AI-logarimter og andet spændende "isenkram", levere resultater, der passer bedre til dit behov. Så i forhold til i dag skal du bruge mindre tid på at finde det rigtige og i nogen tilfælde vil du stole på, at agenter finder det rigtige til dig.

Du ser bare at beløbet ser rimeligt ud og så har du tillid til, at såvel hotellet og restauranter er i orden, samt at biletterne til de foreslåede attraktioner er bestilt.

Der er selvføgelig nogle, der har en kommerciel interesse i, at du er glad for dine personlige agenter. Så det er ikke tilfældige agenter der bare farer rundt på nettet, de udgør et forretningsgrundlag for nogle virksomheder

  • 0
  • 0
Andreas Kirkedal

Så bliver implementationen drevet af forretningen og agenterne stillet til rådighed af et firma, der har indtjening ved at stille denne information til rådighed og informationen agenterne vil have adgang til vil kun være den, som er en del af 3.0-laget.

Som du nævner vil der gå tid før alle hjemmesider bruger RDF og OWL, hvis det sker. I mellemtiden vil tiltroen til en softwareagents resultater ikke være særlig høj, da en meget stor mængde information ikke vil være til rådighed.

  • 0
  • 0
Anonym

Det "rigtige"? For hvem?

Problemet i din tilgang er ikke data på udbudssiden, men på efterspørgselsiden og profilleringen, hvor data om forbrugeren bliver den primære handelsvare.

Den store forskel mellem dine "alvidende agenter" og formålsspecifikke agenter er at formålsspecifikke agenter ikke kan identicere forbrugeren og dermed får en opgave, løser den og derefter i princippet forgår.

Du opsamler dine egne data og genbruger dem, hvis du ønsker det - men ingen fremmed agent kan akkumulere viden.

Formålsspecifikke agenter har kun en funktion, sålænge kunden har et behov og bliver ikke invasive eller aggressive. Kunden vil og skal have en naturlig mistro til sådanne agenter, fordi den kommercielle interesse i at købe sig til en bedre position i "forslaget" er stærkt.

Det er f.eks. det som Google gør - sælger reklameplads og påvirkningen til den som er interesseret i at betale mest for den - det er IKKE det som giver den bedste behovsdækning for pengene.

  • 0
  • 0
Brian Jacobsen

"Det tror jeg at markedet løser.

Hvis de agenter du vil anvende ikke opfylder dit behov, vil der være et marked for agenter, der bedre opfylder dine behov."

Du antager at JEG kender mine behov for information, men det mener jeg er en uholdbar antagelse. Jeg kan jo ikke vide, om der er noget, som jeg ikke ved, som jeg burde vide.

Og hvis "markedet" bare smider en masse agenter i hovedet på mig, skal jeg jo filtrere i dem - og hvad har jeg så vundet?

Agenter er fine til små veldefinerede opgaver, men de er ikke det nye sort.

En af de store forbedringer bliver når søgemaskinerne begynder at forstå søgningen i en kontekst. Men så er vi over i metadata på data og det har lange udsigter.

  • 0
  • 0
Henrik Hvid Jensen

Nogle af kommentarene på bloggen giver indtryk af at det er et problem at de personlige agenter har en kommerciel vinkel. Jeg er overbevist om, at det er helt afgørende, at der er nogle, der har en kommerciel interesse i at lave relevante agenter. Det er samme drivkraft der har været bag hele internettets udbredelse og med Web 3.0 vil der komme endnu flere forretningsmuligheder og Ja, jeg tror at du vil kunne betale for at få dine placeringer højt på en personlig agents anbefalinger. Men er det for tykt, så vil du jo næste gang vælge en ny agent til at finde det du ønsker.

Hvis vi tager et site som edbpriser.dk, så er det et første trin på en personlig agent. Jeg vælger næsten altid den billigste vare som de foreslår, når jeg lige har set, at den pågældende butik har ehandelsmærket.

Med den erfaring jeg har med edbpriser.dk, ville jeg ikke være bekymret over at bede dem om at "Køb den biligste PS/3, hos en ehandelsmærke-butik, der kan leveres inden slutningen af ugen" (Min knægt har fødselsdag i næste weekend). Jeg ville måske slet ikke have behov for at angive kravet om ehandelpris, det kunne stå som en fast del af mine præferencer.

Men i dag skal jeg alligevel igennem flere hjememsider for at foretage købet

  • 0
  • 0
Andreas Kirkedal

Mit problem er snarere at det kun er en lille del af informationen der er til rådighed, der vil blive fundet pga. 3.0 laget er nødvendigt for algoritmerne bag agenterne og det sænker min tillid. Hvis jeg skal finde uddannelsesmateriale ligger der tonsvis gratis på nettet, men jeg bliver kun vist det der koster noget.

  • 0
  • 0
Anonym

Henrik

Du beskriver EDBpriser.dk som en formålsspecifik agent - ikke noget som er i nærheden af det som din artikel handlede om.

Selvfølgelig er agenter kommercielle - spørgsmålet er bare om borgeren er kunden eller produktet.

  • 0
  • 0
Nikolaj Brinch Jørgensen

Der har nu været skrevet bøger i hobetal om dette emne, videnskabelige artikler, og det har været forsøgt realiseret på desktop computere, i mailsystemer mv. i over 20 år.

Der er intet kommet ud af det, udover selvfølgeligt at det er blevet droppet ud af nogle af programmerne igen, fordi det simpelt hen er en god tanke, men umådelig svært at implementere så det giver værdi.

Jeg tror personligt, at der vil komme flere personaliseringstiltag (det er hvad du beskriver om ebdpriser.dk, det er ikke agenter) på web - men agenterne, dem går der umådeligt lang tid før der kommer noget ud af.
Hvis Web 3.0 defineres ved intelligente agenter som en del af løsningerne, så er jeg bange for vi kommer til at vente længe på den, og må så nok nøjes med Web 2.X så længe vi er aktive på arbejdsmarkedet.

  • 0
  • 0
Bjarke Walling

Hvis Web 3.0 defineres ved intelligente agenter som en del af løsningerne, så er jeg bange for vi kommer til at vente længe på den, og må så nok nøjes med Web 2.X så længe vi er aktive på arbejdsmarkedet.

Kunstig intelligens har forskellige definitioner alt efter hvem man spørger. En intelligent agent kan i mine øjne være noget så simpelt, som at du får en sms, når din ynglingsskærm på edbpriser falder til en fornuftig pris.

Med et åbent data web, så vil konkurrenceparameteren blive brugergrænsefladen og de bedste intelligente agenter til at interagere med disse data. Det er hønen og ægget for Web 3.0. Jeg tror at det der kommer først er interessante data i et fælles og åbent platformsuafhængigt standardiseret format, gerne RDF+OWL. Uden data er det svært at lave nogen agenter, selvom nogle af agenterne måske skal stå for at generere og kvalitetssikre data, ligesom at folk på Wikipedia bruger bots til fejlsøgning og det kedelige arbejde i at skrive artikler.

  • 0
  • 0
Nikolaj Brinch Jørgensen

Kunstig intelligens har forskellige definitioner alt efter hvem man spørger.

Det er vi helt enige om.

En intelligent agent kan i mine øjne være noget så simpelt, som at du får en sms, når din ynglingsskærm på edbpriser falder til en fornuftig pris.

Det er så her hvor vi 2 i hvert fald sondrer forskelligt mellem hvad vi vil kalde intelligent.

  • 0
  • 0
Bjarke Walling

Det er så her hvor vi 2 i hvert fald sondrer forskelligt mellem hvad vi vil kalde intelligent.

En intelligent agent er en autonom enhed, der observerer og reagerer på et miljø for at opnå et mål. Det omtalte program reagerer på et miljø, som er prislister og sms-gateway. Det er autonomt idet det reagerer uden indgreb fra mennesker. Og det arbejder for at opnå et mål med succeskritieriet at jeg modtager en sms, når mit produkt er tilpas billigt. For at være virkelig brugbart skal det måske kunne reagere på en lang række faktorer og på andre måder (måske købe på mine vegne), men det handler i høj grad om at udvikle en passende brugergrænseflade. Maskinlæring er nået langt allerede, tag f.eks. et kig på Google Translate eller Moodagent. Før man kan snakke kunstig intelligens, så bliver man nød til at have et veldefineret mål.

  • 0
  • 0
Log ind eller Opret konto for at kommentere