Lastning . . . PÅTÄND

GPT-4: Vad du behöver veta om den NYA ChatGPT

ChatGPT OpenAI

FAKTAKONTROLL GARANTI (Referensprojekt): [Officiell dokumentation: 1 källa] [Peer-reviewed forskningsartiklar: 1 källa] [Akademisk webbplats: 1 källa]

 | Förbi Richard Ahern - Förra året satte ChatGPT världen i brand som en av de mest avancerade AI-chatbotarna som finns, men nu har Elon Musks OpenAI höjt ribban ännu en gång.

Även om du bor under en sten har du förmodligen upplevt en del av spänningen kring Open AI:s chatbot, ChatGPT, som släpptes i november 2022.

Medan teknikföretag ofta framhåller sina nya produkter som "nästa stora grej", vände Open AI:s grupp av stora GPT-språkmodeller huvudena överallt.

På ytan var det en textbaserad meddelandetjänst med en dator som pratade tillbaka i andra änden. Den talade inte hörbart eller producerade någon visuell feedback – den läste bara och spottade ut textrader.

Så varför blev folk kära i det?

Eftersom det gjorde livet lättare fick det jobbet gjort och gjorde det bra. Men det beror förstås på vad du använder den till; det kommer inte att tvätta eller laga mat åt dig - men det kommer att ge dig några anständiga receptidéer!

Men för författare och kodare är det där det lyser, be den att skriva ett datorprogram på vilket språk som helst, och det gör ett ganska imponerande jobb.

Dess unika ligger i att du kan ge den mycket förenklade eller oklara instruktioner, och den kommer ofta att fylla i tomrummen och göra de korrekta antagandena.

För författare kan de kopiera och klistra in en bit text och be att få sammanfatta den i ett stycke - inga problem. Du kan använda den som en grundläggande stavnings- och grammatikkontroll, men det är att slösa bort sina talanger. Det kommer inte bara att rätta till misstag och förbättra tydlighet, precis som alla avancerade AI-skrivassistenter, utan du kan också be den att skriva om hela ditt stycke eller skriva det hela från grunden (om du skulle vara lat).

Så att vi inte glömmer…

Det har varit en dyster mardröm för lärare och examinatorer när det öppnade en ny burk med maskar i kampen mot fusk. Men det hjälper naturligtvis inte att OpenAI har testat GPT:erna genom att ge dem standard skolprov, och som du ser nedan, med anmärkningsvärda resultat.

För att verkligen förstå dess kraft måste du experimentera själv, men på det hela taget är utskriftskvaliteten imponerande, främst för att den kan producera utökade och detaljerade delar av innehåll, inte bara en mening eller två.

Men det var bara GPT-3.5...

I går kom nyheten om det GPT-4 är klar, och det är ett helt nytt monster.

För det första kan den enligt uppgift bearbeta bildinnehåll såväl som text, något som teknikgemenskapen bad om. Säkerhet verkar vara en fokuspunkt för GPT-4, med det "82 % mindre sannolikt att svara på förfrågningar om otillåtet innehåll."

I ett nötskal, det är större...

GPT:erna kallas stora språkmodeller — de matas med gigantiska uppsättningar data om ett språk och använder sannolikheter för att förutsäga ordföljden. Genom att undersöka miljarder parametrar om ett språks struktur kommer programmet att titta på ett ord eller en uppsättning ord, beräkna sannolikheterna för vilka ord som följer och sedan välja den högsta sannolikheten.

Ta till exempel meningen "Jag sprang uppför..." - ta sedan följande ord, "hund", "boll", "trappa" eller "backe".

Intuitivt vet vi att "hund" och "boll" inte är meningsfulla, men "trappor" och "backe" är båda hållbara val. Ett program för djupinlärning har dock inte mänsklig intuition; den kommer att titta på en stor mängd text och beräkna sannolikheterna för varje ord efter meningen "Jag sprang upp ...".

Låt oss säga att "hund" och "boll" förekommer mindre än 0.001 % av gångerna efter den meningen och säga att "trappor" har 20 % sannolikhet att följa dessa ord, men "backe" har 21 % sannolikhet. Så maskinen väljer "backe" och skriver ut: "Jag sprang uppför backen."

Kan det vara fel? Naturligtvis, men det har en högre sannolikhet att vara korrekt, och ju mer data det har, desto mer exakt blir det.

Det är inte riktigt så enkelt; När modellen väl har data testas den och finjusteras av mänskliga granskare för att se till att den är noggrann och för att minimera "hallucination", tendensen att producera orimligt skräp - att välja fel ord!

GPT-4 är den största modellen hittills, i många storleksordningar, även om det exakta antalet parametrar inte har avslöjats. Tidigare var GPT-3 över 100 gånger större än GPT-2, med 175 miljarder parametrar till GPT -2:s 1.5 miljarder. Vi kan anta en liknande ökning med GPT-4. Dessutom vet vi att programmet har genomgått en intensiv finjustering med hjälp av förstärkning lärande från mänsklig feedback. Detta innebär att man ber människor att betygsätta chatbotens svar, och dessa poäng återkopplas för att "lära den" för att producera bättre resultat.

Open-AI har förblivit hemlighetsfull om GPT-4, med hänvisning till "både konkurrenslandskapet och säkerhetskonsekvenserna." Därför är den exakta modellstorleken, hårdvaran och träningsmetoderna okända.

De har sagt detta:

"GPT-4 kan lösa svåra problem med större noggrannhet, tack vare dess bredare allmänna kunskap och problemlösningsförmåga." Det är 82 % mindre sannolikt än GPT-3.5 att svara på förfrågningar om förbjudet innehåll och 60 % mindre sannolikt att hitta på saker.

Här är den skrämmande delen:

GPT-4 klarade sig betydligt bättre än de flesta mänskliga testtagare och GPT-3.5 på skolprov. Till exempel, i Uniform Advokatexamen (juridik), fick den poäng bland de översta 90 %, jämfört med GPT-3.5, som fick poäng i den ynkliga 10:e percentilen. I AP-statistik, AP-psykologi, AP-biologi och AP-konsthistoria (motsvarigheter på A-nivå i Storbritannien) fick GPT-4 poäng mellan 80:e och 100:e centilen - med andra ord, ibland slog alla!

Allt är inte bra:

Intressant nog gjorde det den fattigaste (8:e till 22:e centilen) i engelsk litteratur och komposition och kunde ha varit mer imponerande i kalkylen (43:e till 59:e centilen).

På Twitter visade några människor hur GPT-4 förvandlade en klottrad kontur av en webbplats på en servett till en fullt fungerande onlineapplikation.

Sammantaget betonade OpenAI förbättrad noggrannhet och säkerhet som de kritiska förbättringarna av GPT-4. Det är mycket mindre sannolikt att svara på användare som ber om instruktioner för att skapa en bomb, till exempel. Den kan också hantera mycket längre innehåll än sin föregångare, bearbeta 25,000 1,500 ord jämfört med ungefär XNUMX XNUMX ord.

GPT-4 har utpekats som mer "kreativ" än tidigare - enligt OpenAI, "kan den generera, redigera och iterera med användare om kreativa och tekniska skrivuppgifter, som att komponera låtar, skriva manus ..."

Slutligen, kanske störst av allt, har den "vision", att kunna analysera och klassificera innehållet i bilder.

AI har anlänt, och oavsett om du tycker att dess utveckling är spännande eller skrämmande, så är det inget att förneka att den är här för att stanna. Även om vissa kan oroa sig för att bli ersatta, kommer de som omfamnar dess potential att använda det som det mest kraftfulla verktyget som finns.

Vi behöver din hjälp! Vi ger dig ocensurerade nyheter för FRI, men vi kan bara göra detta tack vare stödet från trogna läsare precis som DU! Om du tror på det fria ordet och tycker om riktiga nyheter, överväg att stödja vårt uppdrag genom att bli en beskyddare eller genom att göra en engångsdonation här. 20% av ALLA pengar skänks till veteraner!

Denna artikel är endast möjlig tack vare vår sponsorer och beskyddare!

Gå med i diskussionen!
Prenumerera
Meddela om
0 Kommentarer
Inline feedbacks
Visa alla kommentarer
0
Skulle älska dina tankar, vänligen kommentera.x
()
x