A young boy viewing a digital screen with data streams, symbolizing technology interaction.
|

Prosjekt Origo – veien til sannhet

Origo er latinsk for «opprinnelse» eller «kjerne» – signaliserer å finne tilbake til faktaenes opprinnelse.

Introduksjon:

I en tid der desinformasjon og polarisering utfordrer samfunnets grunnverdier, lanserer Binders, i samarbeid med Websenter, et banebrytende prosjekt for å fremme fakta, sannhet og tillit. Prosjekt Origo kombinerer menneskelig innsikt med avansert teknologi for å gi enkeltpersoner, offentlige institusjoner og politikere et verktøy for å ta bedre beslutninger – basert på fakta, ikke frykt.

Delta på prosjektet Investorer og gavegivere Prosjektbeskrivelse

Hva er Prosjekt Origo

Prosjekt Origo er et initiativ drevet av Binders, i samarbeid med Websenter, med mål om å bringe frem reelle sannheter gjennom et unikt samspill mellom menneskelig kontroll og kunstig intelligens (AI). Ved å håndplukke pålitelige kilder og la teknologien systematisere og analysere data, sikrer vi at brukerne får tilgang til fakta som er både verifiserbare og lett forståelige.

Nøkkelpunkter:

  • Mennesker definerer hvilke kilder AI-en skal hente informasjon fra.
  • Teknologien analyserer og kryssjekker dataene for å avdekke sannheter.
  • Resultatene presenteres med klare kildehenvisninger for å sikre gjennomsiktighet.

Hvordan Fungerer Løsningen?

Fra utvalgte kilder til pålitelige fakta

Innhold (bruk Kadence-informasjonsblokker):

  1. Utvelgelse av kilder
    Et ekspertteam fra Binders og Websenter identifiserer kilder som er pålitelige og faktabaserte.
    Eksempel: FN-rapporter, fagfellevurderte artikler og uavhengige nyhetskanaler.
  2. Datainnsamling
    Kunstig intelligens samler data fra de utvalgte kildene, strukturerer informasjonen og lagrer den i en søkbar database.
  3. Analyse og visualisering
    Teknologien kryssjekker dataene og identifiserer sammenhenger, motstridende informasjon og faktabaserte sannheter. Resultatene presenteres i et lettfattelig format.

Visuelt eksempel (bruk en Kadence-ikonboks):

  • Ikon: 🔍 Faktaanalyse
  • Ikon: 📚 Pålitelige kilder
  • Ikon: 📊 Datavisualisering

Reell Case: Klimadebatt

Overskrift:
«Et praktisk eksempel: Klimadebatten»

Innhold:
Klimadebatten er et typisk eksempel på et tema preget av motstridende påstander og usikkerhet. Med Prosjekt Origo kan vi:

  • Samle pålitelige data fra forskningsinstitusjoner, FN-rapporter og uavhengige organisasjoner.
  • Kryssjekke informasjonen for å identifisere hva forskningen faktisk sier om utslipp, temperaturendringer og effekten av ulike tiltak.
  • Presentere resultatene i et format som er lett å forstå – med klare kildehenvisninger.

Resultat:
En kommune kan bruke Origo til å basere sine klimatiltak på verifisert forskning fremfor usikre narrativer.


Bli Med

Overskrift:
«Sammen kan vi skape forandring»

Innhold:
Vi inviterer deg til å bli en del av Prosjekt Origo. Som medlem i Binders får du muligheten til å bidra med innspill, teste løsningen og være en del av et fellesskap som setter fakta og sannhet i fokus.

Call-to-Action-knapper:


Kontakt

Overskrift:
«Ta kontakt med oss»

Innhold:
Har du spørsmål, innspill, eller ønsker du å bli med på prosjektet? Vi vil gjerne høre fra deg!

Invitasjon til å Investere i Prosjekt Origo

Hvorfor er dette prosjektet viktig?

I en verden som blir stadig mer polarisert, er sannhet en av de mest verdifulle ressursene vi har. Desinformasjon og motstridende narrativer undergraver offentlig tillit, skaper frykt og forvirring, og gjør det vanskelig for enkeltpersoner og samfunn å ta informerte beslutninger.

Dette prosjektet representerer en ny måte å løse dette problemet på: Vi kombinerer menneskelig dømmekraft med avansert teknologi for å identifisere, verifisere og presentere reelle sannheter. Målet er å gi enkeltpersoner, organisasjoner og beslutningstakere de verktøyene de trenger for å skape en bedre fremtid – basert på fakta, ikke frykt.


Hvorfor investere eller gi gave?

Dette er mer enn et prosjekt – det er en mulighet til å bidra til en dyp og varig samfunnsendring. Som investor eller gavegiver blir du en del av et initiativ som:

  • Beskytter demokratiet: Gjør sannhet tilgjengelig for alle og styrker fundamentet for frihet og rettferdighet.
  • Skaper tillit: Gir samfunnet verktøy for å avdekke fakta gjennom støyen av misinformasjon.
  • Posisjonerer deg som en visjonær: Bidrar til en løsning som er både innovativ og nødvendig i dagens samfunn.

Hva går investeringen/gaven til?

Ditt bidrag vil bli brukt til å:

  1. Utvikle teknologien: Bygge og tilpasse systemet som samler, analyserer og presenterer informasjon fra nøye utvalgte kilder.
  2. Sikre menneskelig kontroll: Støtte arbeidet til et ekspertteam som definerer og kvalitetssikrer kildene.
  3. Skape en plattform: Utvikle en brukervennlig løsning som kan tas i bruk av enkeltpersoner, organisasjoner og offentlige instanser.
  4. Promotere og utvide: Sørge for at løsningen når ut til de som trenger den mest, både lokalt og globalt.

Avkastning – Ikke bare økonomisk

Dette prosjektet er ikke drevet av tradisjonell kommersiell profitt, men av et ønske om å skape samfunnsnytte. Likevel gir det investorer en unik avkastning:

  • Samfunnseffekt: Bidra til å fremme sannhet, tillit og bedre beslutninger i samfunnet.
  • Positiv profilering: Investorer blir assosiert med et prosjekt som fremmer demokrati, frihet og rettferdighet.
  • Fremtidige muligheter: Prosjektet kan videreutvikles til kommersielle applikasjoner i spesifikke bransjer (for eksempel klimadata, helseinformasjon eller forvaltningsverktøy).

Hva ser vi etter i en investor/gavegiver?

Vi søker partnere som deler vår visjon og verdier:

  • Et ønske om å fremme sannhet og fakta som grunnlag for samfunnsutvikling.
  • En interesse for innovasjon og teknologi som verktøy for positiv endring.
  • En langsiktig tilnærming og vilje til å være en del av et samfunnsnyttig prosjekt.

Veien videre

Som investor får du:

  • Eksklusiv innsikt: Delta i strategiske beslutninger og få tilgang til tidlige resultater.
  • Synlighet: Mulighet til å være en del av prosjektets kommunikasjon og profilering (dersom ønskelig).
  • Samarbeid: Bli en del av et nettverk av likesinnede som ønsker å skape en bedre fremtid.

Kontakt oss

Er du interessert i å være en del av løsningen? Ta kontakt for en uforpliktende samtale om hvordan du kan bidra til å realisere dette prosjektet.

Konseptbeskrivelse: Teknologi for Reelle Sannheter

Målsetting

Vi lever i en tid der verden ofte polariseres av motsetninger, misinformasjon og ulike trossystemer. Dette gjør det krevende å navigere mot reelle sannheter. Målet med dette prosjektet er å bruke kunstig intelligens (AI) som et verktøy til å samle, analysere og presentere faktabasert informasjon – men med en avgjørende forskjell: Alle kilder som AI-modellen arbeider med, er nøye utvalgt og definert av mennesker med kunnskap og integritet.

Ved å kombinere menneskelig dømmekraft med AI-teknologi skaper vi en løsning som bygger på pålitelige fakta, slik at enkeltmennesker, offentlige systemer og politikere kan ta informerte og ansvarlige beslutninger.


Hvordan virker det?

  1. Menneskelig utvelgelse av kilder: Et team av fagpersoner og eksperter definerer hvilke kilder som anses som pålitelige og faktabaserte. Disse kildene kan inkludere forskningsartikler, offisielle rapporter og journalistiske publikasjoner med høy troverdighet.
  2. Datainnsamling og strukturering: AI brukes som et verktøy til å hente informasjon fra disse forhåndsdefinerte kildene, strukturere dataene og gjøre dem søkbare.
  3. Analyse og faktasjekk: Ved hjelp av kunstig intelligens analyseres og kryssjekkes informasjonen på tvers av kildene for å avdekke motsetninger, sammenhenger og reelle fakta.
  4. Visuell fremstilling: Resultatene presenteres i et tydelig og forståelig format med klare kildehenvisninger, slik at brukerne alltid vet hvor informasjonen stammer fra.

Fordeler

  • Menneskelig kontroll: All informasjon som AI-modellen arbeider med, er hentet fra kilder valgt av mennesker – ikke algoritmer.
  • Pålitelige beslutningsgrunnlag: Fjerner støy og misinformasjon ved å fokusere på dokumenterte fakta.
  • Forbedret samfunnsdebatt: Gir brukerne et verktøy for å forstå komplekse temaer basert på troverdige kilder.
  • Effektiv forvaltning: Sikrer at offentlige og politiske beslutningstakere baserer seg på fakta, ikke desinformasjon.

Reell Case: Klimadebatt

Utfordring: Klimadebatten preges ofte av motstridende informasjon, polarisering og misbruk av data for å fremme bestemte narrativer.

Løsning:

  1. Utvelgelse av kilder: Et ekspertteam identifiserer pålitelige kilder som FN-rapporter, forskningsinstitusjoner og uavhengige miljøorganisasjoner.
  2. Datainnsamling: AI henter informasjon kun fra de utvalgte kildene og strukturerer dataene.
  3. Analyse: AI kryssjekker påstander og data mellom kildene for å identifisere hva som er støttet av dokumentert forskning.
  4. Resultat: Et visuelt sammendrag som viser hva forskningen faktisk sier om temaer som globale utslipp, temperaturendringer og tiltakseffekter – med kildehenvisninger.

Eksempel på bruk: En kommune kan bruke løsningen til å planlegge miljøtiltak basert på fakta fra utvalgte kilder, fremfor å basere seg på misinformasjon eller politisk motiverte narrativer.


Konkrete Leveranser for Binders

  1. Menneskestyrt kildeutvalg: Et samarbeid med fagpersoner i Binders for å identifisere hvilke temaer og kilder som skal inkluderes i plattformen.
  2. Prototype: Utvikle et system som samler og analyserer informasjon om et utvalgt tema, med tydelige kildehenvisninger.
  3. Medlemsplattform: Gi Binders-medlemmer tilgang til et verktøy hvor de kan utforske fakta og bidra med egne spørsmål.
  4. Rapporter: Skape automatiserte rapporter basert på kildeanalyser som kan deles med offentligheten eller politiske beslutningstakere.

Veien Videre

  1. Fase 1 – Planlegging (1 måned):
    • Definere temaer og kriterier for valg av kilder.
    • Velge et team som står for kildeutvalget og kvalitetssikringen.
  2. Fase 2 – Utvikling (2-3 måneder):
    • Utvikle teknologien for datainnsamling, analyse og visualisering.
    • Bygge en prototype for testing.
  3. Fase 3 – Testing og lansering (1-2 måneder):
    • Teste løsningen med Binders-medlemmer.
    • Samle tilbakemeldinger og gjøre nødvendige justeringer.

Viktigheten av Menneskelig Kontroll

Dette prosjektet setter mennesker i førersetet for å sikre at informasjonen som brukes, er basert på kvalitet og integritet. Teknologien er kun et verktøy som effektiviserer innsamlingen og analysen av informasjon, men det er mennesker som avgjør hvilke kilder som er pålitelige, og hvilke data som skal presenteres. Dette gir en ekstra trygghet for at løsningen forblir etisk og faktaorientert.


Invitasjon

Vi inviterer Binders til å bli med på et prosjekt som kan bidra til en bedre verden ved å fremme fakta i samfunnsdebatten. Gjennom menneskelig dømmekraft og moderne teknologi kan vi skape en løsning som gir både medlemmer og samfunnet en tydelig vei fremover – basert på sannhet, ikke støy.

Prosess og Ressursbehov

1. Planlegging og strategi

  • Hva: Identifisere målgruppen, velge relevante kilder og definere funksjonaliteten.
  • Ressurser: 1–2 personer med kompetanse innen strategi og prosjektledelse.
  • Tid: 1–2 uker.

2. Teknisk oppsett

  • Hva: Sette opp systemer for datainnsamling, lagring og AI-analyse.
  • Ressurser: 2–3 tekniske ressurser (utviklere, dataspesialister).
  • Tid: 3–4 uker for grunnleggende funksjonalitet.

3. Utvikling av brukergrensesnitt

  • Hva: Designe en enkel nettside hvor brukere kan stille spørsmål og få svar.
  • Ressurser: 1–2 front-end utviklere eller designere.
  • Tid: 2–3 uker.

4. Testing og lansering

  • Hva: Teste systemet for å sikre nøyaktighet og brukervennlighet.
  • Ressurser: 1–2 personer til testing og kvalitetskontroll.
  • Tid: 1–2 uker.

Totalt estimat

  • Tid: 8–12 uker fra start til ferdig løsning.
  • Ressurser: Et team på 4–6 personer med ulik kompetanse.

Teknologiske Ressurser

  • AI-verktøy: OpenAI API eller lignende for analyse.
  • Databaser: PostgreSQL eller Elasticsearch for lagring av data.
  • Webrammeverk: Flask eller FastAPI for serverdelen og React for brukergrensesnittet.
  • Hosting: Cloud-plattform som AWS, Google Cloud eller Azure.

Budsjettoverslag

  • Utvikling: Estimert kostnad på 100 000–200 000 NOK for et grunnleggende system.
  • Drift: 10 000–20 000 NOK/mnd for servere, datalagring og AI-spørringer.

Her er en analyse av hva som er mest ressurskrevende og konkrete eksempler for ti websider.

1. Webcrawling

Hvor krevende er det?

  • Tid: Moderat.
    • For ti nettsider er dette relativt enkelt å sette opp, spesielt med ferdige verktøy som Scrapy eller Beautiful Soup.
  • Ressurser: Lite til moderat.
    • Crawling av ti nettsider vil ikke kreve mye CPU eller båndbredde.
  • Kostnad: Lav.
    • Hosting og driftskostnader for crawlers vil være minimale for ti nettsider.

Estimert tid og kostnad:

  • Tid: 5–10 timer for oppsett og testing.
  • Kostnad: Gratis eller under $10/mnd (hvis du bruker en billig cloud-tjeneste).

2. Databaselagring

Hvor krevende er det?

  • Tid: Lav.
    • Å sette opp en database som SQLite, PostgreSQL, eller Elasticsearch for ti nettsider er enkelt.
  • Ressurser: Lite.
    • Databasen trenger ikke mye lagringsplass for ti nettsider.
  • Kostnad: Lav.
    • Gratis databaser (som SQLite eller Postgres) fungerer fint i dette skalaet.

Estimert lagringsbehov:

  • Typisk størrelse på en nettside:
    • En nettside med tekstlig innhold har gjennomsnittlig 50–100 KB per side.
    • Hvis hver nettside har 100 sider, vil de totale dataene være 10 nettsider × 100 sider × 100 KB = 100 MB (inkludert indekser og metadata).

Estimert tid og kostnad:

  • Tid: 2–5 timer.
  • Kostnad: Gratis (lokalt) eller $5–10/mnd (for cloud-baserte tjenester som AWS eller Google Cloud).

3. AI-modell og indeksering

Hvor krevende er det?

  • Tid: Høyt.
    • Å sette opp en AI-modell som GPT med indeksering og søkeoptimalisering tar tid, spesielt hvis du bruker avanserte verktøy som LangChain eller Haystack.
  • Ressurser: Moderat til høyt.
    • For ti nettsider er det overkommelig, men å trene egne modeller eller tilpasse dem kan kreve GPU/CPU-ressurser.
  • Kostnad: Moderat til høyt.
    • Bruk av kommersielle modeller (som OpenAI API) koster, og større datamengder øker prisen.

Estimert tid og kostnad:

  • Tid: 10–20 timer for å sette opp og teste en løsning som LangChain/Haystack med OpenAI API.
  • Kostnad:
    • OpenAI API: $0.01–0.03 per 1k tokens (for GPT-4). For ti nettsider, med ca. 10 000 ord per nettside, vil det koste **$1–3** for analyse.
    • Oppsett med Haystack (open-source): Gratis, men krever mer tid og teknisk kompetanse.

4. Søke- og brukergrensesnitt

Hvor krevende er det?

  • Tid: Moderat.
    • Å bygge et søkegrensesnitt med Flask, FastAPI eller en frontend-ramme som React krever arbeid, men er håndterbart for ti nettsider.
  • Ressurser: Lav til moderat.
    • Brukergrensesnitt krever minimal serverkapasitet ved liten brukermasse.
  • Kostnad: Lav til moderat.
    • Hosting av en enkel webapplikasjon vil koste lite.

Estimert tid og kostnad:

  • Tid: 10–15 timer for et enkelt oppsett.
  • Kostnad: Gratis (lokalt) eller ~$5/mnd for hosting.

Sammenlagt krav for 10 nettsider

KomponentTid (timer)Kostnad (oppsett)Kostnad (drift)Ressursbehov
Webcrawling5–10Gratis eller <$10<$10/mndLav (CPU/båndbredde)
Databaselagring2–5GratisGratis eller $5/mndLav (<100 MB lagring)
AI-modell & indeksering10–20Gratis eller ~$20$10–20/mnd (OpenAI)Moderat (avhengig av modell)
Søkegrensesnitt10–15Gratis eller <$10$5–10/mndLav/moderat

Oppsummering

  • Totaltid: 30–50 timer for oppsett.
  • Oppstartskostnad: $30–50 (ved bruk av kommersielle AI-tjenester som OpenAI).
  • Driftskostnad: $20–40/mnd for hosting, AI-spørringer og database.

Skalerbarhet til 100 nettsider

Hvis du skalerer til 100 nettsider, kan datamengden vokse til 1 GB (tekstinnhold), og kostnadene for spørringer til AI-modellen vil øke tilsvarende. De mest ressurskrevende delene (AI-modellen og indeksering) vil bli dyrere, men databaselagring og crawling vil fremdeles være rimelig.

AI kan brukes til å automatisere rensing, strukturering og fjerning av duplikater i dataene på en effektiv måte. Moderne AI-modeller og maskinlæringsverktøy er spesielt godt egnet til å analysere, kategorisere og forbedre datakvaliteten. Her er noen detaljer om hvordan dette kan gjøres:


1. Fjern Duplikater

  • Tekstuell likhet: Bruk naturlig språkprosessering (NLP) til å sammenligne tekster og oppdage innhold som er svært likt eller identisk.
  • Eksempel: Bruk en algoritme som fuzzy matching (for eksempel Levenshtein-avstand) eller en AI-modell som kan forstå semantiske likheter (f.eks. Sentence Transformers).

2. Rensing av Data

  • Fjern uønsket innhold:
    • Bruk regelbaserte metoder (regex eller faste mønstre) for å fjerne reklame, bannere, eller irrelevante deler av tekst.
    • AI kan trenes til å identifisere spesifikke teksttyper (f.eks. «footer-tekst» eller «irrelevante seksjoner») og fjerne dem.
  • Eksempelverktøy: OpenAI’s GPT kan hjelpe med å analysere en tekst og peke ut irrelevante eller feilplasserte deler.

3. Strukturering av Data

  • Kategorisering:
    • Bruk AI-modeller til å automatisk kategorisere innhold i definerte kategorier.
    • Eksempel: Et AI-system kan sortere medisinsk data i kategorier som «symptomer», «behandlinger» eller «medisinske studier».
  • Ekstraksjon:
    • Bruk NLP for å hente spesifikke deler av teksten, som nøkkelord, datoer, eller forfattere, og strukturere dem i en database.
    • Eksempel: Bruk verktøy som spaCy eller Hugging Face Transformers for named entity recognition (NER).

4. Identifisering av Relevante Tekstbiter

  • Oppsummering:
    • AI kan automatisk oppsummere lange artikler for å hente ut de mest relevante delene.
    • Eksempel: En modell som BART eller GPT kan brukes til oppsummeringsoppgaver.
  • Relevansvurdering:
    • Modeller som TF-IDF eller mer avanserte modeller som Sentence Transformers kan vurdere hvilken del av dataene som er mest relevant for bruk.

5. Deteksjon av Feil eller Uoverensstemmelser

  • AI kan identifisere språklige feil, faktuelle feil, eller uoverensstemmelser i dataene.
  • For eksempel: GPT-4 kan brukes til å flagge setninger som virker tvetydige eller motstridende i sammenheng med resten av innholdet.

6. Automatiserte Verktøy og Biblioteker

  • OpenAI API/GPT-modeller: For tekstforståelse, oppsummering, og strukturering.
  • spaCy: For NER, tekstanalyse, og strukturering.
  • Hugging Face Transformers: For mer komplekse oppgaver som semantisk analyse.
  • Pandas/DataFrames: For å manipulere data effektivt etter AI-behandling.
  • LangChain: For integrasjon av AI med dokumentstrømmer og søkesystemer.

Fordeler med AI-basert Rensing og Strukturering

  • Tidseffektivt: AI kan raskt analysere og behandle store mengder data.
  • Fleksibilitet: Kan tilpasses ulike domener og typer innhold.
  • Nøyaktighet: Kan oppdage mønstre og feil som er vanskelig å fange opp manuelt.

Lignende innlegg

Legg igjen en kommentar