* Cantinho Satkeys

Refresh History
  • FELISCUNHA: ghyt74  pessoal   4tj97u<z
    04 de Julho de 2025, 11:58
  • JPratas: dgtgtr Pessoal  101041 Vamos Todos Ajudar na Manutenção do Forum, Basta 1 Euro a Cada Um  43e5r6
    03 de Julho de 2025, 19:02
  • cereal killa: Todos os anos e preciso sempre a pedir esmolas e um simples gesto de nem que seja 1€ que fosse dividido por alguns ajudava, uma coisa e certa mesmo continuando isto vai levar volta a como se tem acesso aos tópicos, nunca se quis implementar esta ideia mas quem não contribuir e basta 1 € por ano não terá acesso a sacar nada, vamos ver desenrolar disto mais ate dia 7,finalmente um agradecimento em nome do satkeys a quem já fez a sua doação, obrigada
    03 de Julho de 2025, 15:07
  • m1957: Por favor! Uma pequena ajuda, não deixem que o fórum ecerre. Obrigado!
    03 de Julho de 2025, 01:10
  • j.s.: [link]
    02 de Julho de 2025, 21:09
  • j.s.: h7t45 ao membro anónimo pela sua ajuda  49E09B4F
    02 de Julho de 2025, 21:09
  • j.s.: dgtgtr a todos  4tj97u<z
    01 de Julho de 2025, 17:18
  • FELISCUNHA: Votos de um santo domingo para todo o auditório  4tj97u<z
    29 de Junho de 2025, 11:59
  • m1957: Foi de boa vontade!
    28 de Junho de 2025, 00:39
  • j.s.: passem f.v. por aqui [link]    h7t45
    27 de Junho de 2025, 17:20
  • j.s.: renovamos o nosso pedido para uma pequena ajuda para pagemento  do nosso forum
    27 de Junho de 2025, 17:19
  • j.s.: h7t45 aos convidados de honra Felizcunha e M1957 pela ajuda
    27 de Junho de 2025, 17:15
  • j.s.: dgtgtr a todos  4tj97u<z
    27 de Junho de 2025, 17:13
  • FELISCUNHA: ghyt74  pessoal  4tj97u<z
    27 de Junho de 2025, 11:51
  • JPratas: try65hytr A Todos  classic k7y8j0
    27 de Junho de 2025, 04:35
  • m1957: Por favor vaamos todos dar uma pequena ajuda, para não deixar encerrar o fórum! Obrigado.
    26 de Junho de 2025, 23:45
  • FELISCUNHA: j.s. enviei PM  101041
    26 de Junho de 2025, 21:33
  • FELISCUNHA: try65hytr  pessoal   htg6454y
    26 de Junho de 2025, 21:33
  • JPratas: try65hytr Pessoal  4tj97u<z
    26 de Junho de 2025, 02:28
  • cereal killa: Boa Tarde Pessoal E com enorme tristeza que depois de 15 anos que idealizei e abri este fórum vejo que esta na iminência de fechar portas porque ninguém tenta ajudar o pagamento do servidor, mas cada ano e sempre difícil arranjar almas caridosas que nos bom ajudando mas este ano esta complicado, mas infelizmente e como diz o j.s dia 5/07 se não houver algumas ajudas esta vez vai mesmo fechar…..e pena e triste mas tudo na vida tem fim. obrigada cereal killa
    25 de Junho de 2025, 19:40

Autor Tópico: How LLMs Understand & Generate Human Language  (Lida 35 vezes)

0 Membros e 1 Visitante estão a ver este tópico.

Offline mitsumi

  • Sub-Administrador
  • ****
  • Mensagens: 121842
  • Karma: +0/-0
How LLMs Understand & Generate Human Language
« em: 02 de Outubro de 2024, 11:03 »
How LLMs Understand & Generate Human Language



Released: 9/2024
Duration: 1h 54m | .MP4 1280x720, 30 fps(r) | AAC, 48000 Hz, 2ch | 372 MB
Genre: eLearning | Language: English


Your introduction to how generative large language models work.
Overview
Generative language models, such as ChatGPT and Microsoft Bing, are becoming a daily tool for a lot of us, but these models remain black boxes to many. How does ChatGPT know which word to output next? How does it understand the meaning of the text you prompt it with? Everyone, from those who have never once interacted with a chatbot, to those who do so regularly, can benefit from a basic understanding of how these language models function. This course answers some of your fundamental questions about how generative AI works.
In this course, you learn about word embeddings: not only how they are used in these models, but also how they can be leveraged to parse large amounts of textual information utilizing concepts such as vector storage and retrieval augmented generation. It is important to understand how these models work, so you know both what they are capable of and where their limitations lie.
About the Instructor
Kate Harwood is part of the Research and Development team at the New York Times, researching the integration of state-of-the-art large language models into the Times' reporting and products. She also teaches introduction to AI courses through The Coding School. She has a MS in computer science from Columbia University. Her primary focus is on natural language processing and ethical AI.
Learn How To
Understand how human language is translated into the math that models understand
Understand how generative language models choose what words to output
Understand why some prompting strategies and tasks with LLMs work better than others
Understand what word embeddings are and how they are used to power LLMs
Understand what vector storage/retrieval augmented generation is and why it is important
Critically examine the results you get from large language models
Who Should Take This Course
Anyone who
Is interested in demystifying generative language models
Wants to be able to talk about these models with peers in an informed way
Wants to unveil some of the mystery inside LLMs' black boxes but does not have the time to dive deep into hands-on learning
Has a potential use case for ChatGPT or other text-based generative AI or embedding storage methods in their work

Screenshots


Download link

rapidgator.net:
Citar
https://rapidgator.net/file/60edeb41bd8ebbc0e6de2f196a7174e9/nhnrk.How.LLMs.Understand..Generate.Human.Language.rar.html

ddownload.com:
Citar
https://ddownload.com/unl9lj1svwdb/nhnrk.How.LLMs.Understand..Generate.Human.Language.rar