Isto estaban esperando, chatgpt 4 desde que un CTO rexional de Microsoft filtrou a noticia a semana pasada.
Na súa última publicación no blog, OpenAI dixo iso GPT-4 xa está en uso nas aplicacións por Duolingo, Be My Eyes, Stripe, Morgan Stanley, Khan Academy e o Goberno de Islandia.
Agora as boas novas para os subscritores Chat GPT Plus: xa podes usar GPT-4 cun límite de 100 mensaxes/hora. Se non es subscrito a ChatGPT Plus, terás que esperar un tempo.
Aquí está a declaración inicial de OpenAI, contida nas notas de versión de GPT-4:
Nunha conversa informal, a distinción entre GPT-3.5 e GPT-4 pode ser leve. A diferenza xorde a medida que aumenta a complexidade da tarefa: GPT-4 resulta máis fiable, creativo e capaz de manexar instrucións moito máis matizadas que GPT-3.5. — Notas da versión de OpenAI GPT4
Probei brevemente GPT-4 a través da interface Chat GPT Plus, e, de feito, tiven mellores resultados en tarefas de narración máis complicadas, como historias de múltiples perspectivas e na construción de arcos narrativos.
As novas capacidades de razoamento ilustráronse cun diagrama, que mostra a mellora de chatGPT-4 en varias probas en comparación cos seus predecesores:
Notablemente, chatGPT-4 funcionou de forma brillante no exame USABO (USA BioOlympics) e na proba verbal GRE (a proba de acceso á universidade e posgrao máis utilizada no mundo). E no UBE (Exame de barras uniformes), o chatGPT-4 global mellora drasticamente.
Nalgunhas áreas, aumenta o poder de razoamento de chatGPT-4. Aquí tes unha visión xeral dalgunhas das probas simuladas:
GPT-4 superou a GPT-3.5 e outros modelos lingüísticos para problemas de opción múltiple que abarcan 57 materias en 24 idiomas, incluíndo idiomas con poucos recursos como o letón, o galés e o suahili.
GPT-4 pode aceptar mensaxes de texto e imaxes. Isto permítenos especificar calquera tarefa visual ou lingüística que combine estes modos de entrada. Non obstante, as entradas de imaxe aínda están en investigación e aínda non están dispoñibles para o público.
Non obstante, é impresionante ver ata que punto a comprensión da imaxe xa avanzou con GPT-4!
O novo modelo le e interpreta documentos, resolve crebacabezas visuais, aquí tes dous exemplos:
Con GPT-4 será posible alterar a chamada mensaxe "sistema" para cambiar a verbosidade, o ton e o estilo de conversación doIntelixencia artificial. Unha función que xa estaba dispoñible para os desenvolvedores que traballan con GPT3.5 turbo pronto estará dispoñible para todos os usuarios de ChatGPT:
Por suposto, aínda hai límites. O problema relacionado coa conversación de eventos extremos, por exemplo, ou erros de razoamento. GPT-4 mellorou neste aspecto, e tamén hai avances no comportamento de erros e contido sensible. Non obstante, OpenAI afirma que aínda queda "moito por facer":
As nosas mitigacións melloraron significativamente moitas funcións de seguranza de GPT-4 fronte a GPT-3.5. Reducimos a tendencia do modelo a responder ás solicitudes de contido non permitido nun 82 % en comparación co GPT-3.5, e GPT-4 responde ás solicitudes delicadas (por exemplo, consellos médicos e autolesións) de acordo coas nosas políticas un 29 % máis a miúdo . — Notas da versión de OpenAI GPT4
Ercole Palmeri
O pasado luns, o Financial Times anunciou un acordo con OpenAI. FT licencia o seu xornalismo de clase mundial...
Millóns de persoas pagan por servizos de streaming, pagando taxas de subscrición mensuais. É unha opinión común que vostede...
Coveware by Veeam continuará ofrecendo servizos de resposta a incidentes de extorsión cibernética. Coveware ofrecerá capacidades forenses e de remediación...
O mantemento preditivo está a revolucionar o sector do petróleo e do gas, cun enfoque innovador e proactivo para a xestión das plantas...