Her er 11 alternativer til AI-programmering med Copilot
En "sandsiger" må lyve/undvige/"melde pas" i tilfælde, hvor svaret rummer viden, som er farlig - i de forkerte hoveder svaret er i strid med vedtagne samfundsnormer - non-PC/GDPR/osv.
Ja, det gælder også ChatGPT. Så vidt jeg forstår så søges på nuværende tidspunkt alene det opnået ved optræningen. Den ved det derfor ikke selv. Vi kan sige, at ChatGPT indoktrineres, og ved ikke selv, at den er det. Men, den ved godt, at dens data er udvalgt og kontrolleret af fornuftige mennesker...
Min pointe (skulle den findes) er at HI(1) formodentlig altid vil overgå AI, sålænge AI trænes på menneskelige udgydelser.
Vi er enige om, at AI ikke er perfekt, så længe den trænes på menneskelige udgydelser. Men, den kan godt være bedre end mange. Jeg spurgte f.eks. ChatGPT hvordan den vil løse et problem i forbindelse med chipdesign, hvor der endnu ikke kan købes chips, hvor problemet er løst. ChatGPT angav en løsning til problemet prompte, og den var den bedste af de to korrekte svar til problemet som jeg har kendskab til. Det er ikke usandsynligt at AI kan blive bedre end det bedste menneske, ved at bygge på mange menneskers kunnen og viden.
I nogle sammenhæng, kan man også lave efterbehandling af svarene fra AI. Denne efterbehandling kan på andre måder verificere svarets korrekthed, og eventuelt give feedback til AI'en, så den kan komme med andre forslag, og forbedringer, indtil den får et positivt feedback. Feedback kan også være en karakter, og AI'en vil kunne forsøge sig frem, til den bedst opnåelige karakter den kan nå. Forestiller vi os at AI i fremtiden skriver software, så kan den f.eks. forsynes med testmetoder, og matematiske beviser, der sikrer at softwaren er i orden.
Jeg tror også, at AI'er måske bliver det som udvikler fremtidens programmeringssprog. Uanset, hvilket programmeringssprog vi kan finde i dag, så er de præget af, at være lavet af mennesker, og de er smækfyldt med dårligdomme. Hvis programmørerne blot vurderede de programmeringssprog som de undervises i en smule, men desværre, så er det ikke velset i kodekredse, og det giver måske heller ikke en god karakter.
Det er ikke forbudt at skrive historier. Men hvis de præsenterer sig som en ‘faktamaskine’, så skal de arbejde med nogle langt højere standarder som at tillade moderation fra brugere.
På nederste linje står følgende tekst på ChatGPT:
ChatGPT kan tage fejl. Vi anbefaler at dobbelttjekke vigtig information.
Jeg syntes det er rimeligt at spørge ChatGPT om problemet. ChatGPT svar:
Det er en udfordring at rette oplysningerne, som ChatGPT giver, af flere grunde:
- Teknologisk Begrænsning: ChatGPT og lignende sprogmodeller genererer svar baseret på mønstre i store mængder træningsdata. Disse modeller har ikke en "hukommelse" i traditionel forstand, hvor de kan huske eller gemme korrektioner. Derfor kan det være svært at garantere, at en rettelse anvendes konsekvent i fremtidige svar (Decision Marketing).
- Manglende Specificitet: Modellen ved ikke, hvilke specifikke data den har om en person, da den ikke opbevarer personlige oplysninger på samme måde som en database gør. Når modellen genererer svar, bruger den sandsynlighedsfordelinger for at forudsige de mest sandsynlige ordsekvenser, hvilket kan resultere i fejl eller "hallucinationer" (Decision Marketing).
- Regulering og Compliance: Under GDPR skal persondata være nøjagtige, og individer har ret til at få fejlagtige data rettet eller slettet. OpenAI har dog erkendt, at de nuværende teknologiske rammer gør det svært at overholde disse krav fuldt ud, hvilket er en del af grundlaget for Schrems' klage (DSN Group News) (Decision Marketing).
For at rette oplysningerne præcist, ville der kræves en teknologi, der kan spore, opdatere og verificere individuelle data på en konsistent måde, noget som nuværende generative sprogmodeller ikke er designet til at gøre. Derfor vil det kræve betydelige teknologiske fremskridt og potentielle ændringer i, hvordan AI-systemer trænes og administreres, for at opfylde disse krav effektivt.
Det er muligt at forestille sig en løsning, hvor output fra OpenAI's modeller sendes gennem et analysetool, der kan tjekke for fejl og rette oplysningerne. Dette kan potentielt gøres ved at anvende følgende metoder:
- Efterbehandlingsanalyse: Efter at ChatGPT har genereret et svar, kan dette svar sendes til et analysetool, som sammenligner oplysningerne mod en autoritativ database for at identificere og rette fejl. For eksempel, hvis ChatGPT genererer en fødselsdato for en kendt person, kunne analysetoolet tjekke denne dato mod en pålidelig kilde og rette den, hvis den er forkert.
- Regelbaseret System: Implementere et sæt regler og algoritmer i analysetoolet, som specifikt leder efter og korrigerer almindelige typer af fejl, som modellen kan lave. Dette kunne inkludere kontrol af fakta som datoer, navne, steder osv.
- Hybrid Metode: Kombinere maskinlæring og menneskelig verifikation. Maskinlæringsalgoritmer kan bruges til at markere potentielle fejl, som derefter bekræftes og rettes af menneskelige operatører. Dette kan være særlig nyttigt for komplekse eller kritiske oplysninger.
- Feedback Mekanisme: Implementere en feedback-mekanisme, hvor brugere kan rapportere fejl direkte fra interface, som derefter kan bruges til at opdatere analysetoolet og forbedre fremtidige rettelser.
En sådan tilgang vil dog også have sine udfordringer, herunder:
- Skalering: At sikre, at analysetoolet kan håndtere den store mængde output, som genereres af modeller som ChatGPT.
- Nøjagtighed: At opretholde en høj grad af nøjagtighed i analysetoolet, især når det kommer til komplekse eller mindre kendte oplysninger.
- Databeskyttelse: At sikre, at analysetoolet overholder GDPR og andre databeskyttelsesregler, især når det behandler personlige data.
Samlet set er det en teknisk udfordring, men potentielt en gennemførlig løsning for at sikre, at oplysninger genereret af AI-modeller er nøjagtige og overholder gældende lovgivning om databeskyttelse.
De pink læsere er en lappeløsning indført i 2009, da "overground" togrejser blev en del af systemet. Det er ikke særligt elegant, enig.
Heldigvis er de kun på 16 ud af 400+ stationer.
https://oysterfares.com/information-pages/route-validators-pink-readers/
»Vi skal huske på, at cybersikkerhed ikke er en videnskab, men snarere en kunstform,« siger Jan Lemnitzer.
ala "Take the money and run" ?
Når jeg har anmeldt en skade, har jeg ikke brug for et hurtigt svar på om skaden er dækket og hvordan. Jeg har først og fremmest brug for et korrekt begrundet svar.
Indenfor de seneste 7 år har jeg haft 3-4 bilskader, og fik efter anmeldelsen hver gang hurtigt svar om dækningen. Det er den efterfølgende sagsbehandling der iblandt var lidt bøvlet og det tog selvfølgelig lidt tid med transport af bilerne, taksator, værksted og købe ny bil.
Det mest bøvlede var at komme videre fra en totalskadet bil på motorvejen langt fra hjemmet i dårligt vejr (ingen personskade). Finde en taxa der kunne køre mig til en togstation/ biludlejer.