OpenAI paljastaa GPT-4 AI -mallin, joka ymmärtää tekstiä ja kuvia
Miscellanea / / April 03, 2023
Eikä tässä ole kyse vain graafisten esineiden tunnistamisesta, vaan myös kuvien toimien ja tapahtumien ymmärtämisestä.
OpenAI-yritys, chatbotin kehittäjä ChatGPT, esitteli tehokkaan uuden tekoälymallin GPT-4. Toisin kuin edellinen, GPT-3.5, se pystyy ymmärtämään tekstin lisäksi myös kuvia.
Tekoäly voi kertoa sinulle, kuinka voit käyttää kuvassa näkemäänsä. Esimerkkinä kehittäjät mainitsevat laukaukset ilmapalloilla ja nyrkkeilyhansikkaalla.
Vielä selkeämpi esimerkki on tilannekuva avoimesta jääkaapista. GPT-4 kertoo sisällöstä ja tarjoaa reseptejä saatavilla olevista tuotteista. Tämä ominaisuus voi olla hyödyllinen näkövammaisille, kehittäjät huomauttivat.
OpenAI: ssa nimeltään GPT-4 on täydellisin ja luovin malli. Sen avulla voit edelleen analysoida tekstejä ja jäsentää tietoja käyttäjien toiveiden mukaan, mutta se tekee siitä "merkittävämpää". Tekoäly pystyy nyt saamaan korkeampia pisteitä erilaisissa ammatillisissa ja akateemisissa testeissä.
Normaalissa keskustelussa GPT-3.5:n ja GPT-4:n välinen ero voi olla hienovarainen. Mutta erot näkyvät, kun tehtävän monimutkaisuus saavuttaa riittävän kynnyksen - GPT-4 on luotettavampi, luovempi ja pystyy käsittelemään paljon hienompia ohjeita kuin GPT-3.5, lisätty kehittäjät.
Myös tekoälyn tekijät vahvistivat tämän äskettäin lähetetty Microsoftin hakukone chatbotilla toimii GPT-4:ssä. Lisäksi tämä malli on jo käytössä Stripen, Duolingon, Morgan Stanleyn ja A Khan Academyn tuotteissa. Jälkimmäinen käyttää tekoälyä luodakseen eräänlaisen automatisoidun tutorin.
GPT-4 on jo saatavilla OpenAI-käyttäjille, joilla on ChatGPT Plus -tilaus. Muut käyttäjät voivat rekisteröityä lista odottaa API-käyttöä.
Lue myös🧐
- Kuinka käyttää GPTZeroa, ChatGPT: n luomaa tekstihakutyökalua
- Mihin voit upottaa ChatGPT: n ja miksi: 5 vaihtoehtoa
- 8 parasta neuroverkkoa online-piirtämiseen