* Cantinho Satkeys

Refresh History
  • m1957: Por favor! Uma pequena ajuda, não deixem que o fórum ecerre. Obrigado!
    Hoje às 01:10
  • j.s.: [link]
    02 de Julho de 2025, 21:09
  • j.s.: h7t45 ao membro anónimo pela sua ajuda  49E09B4F
    02 de Julho de 2025, 21:09
  • j.s.: dgtgtr a todos  4tj97u<z
    01 de Julho de 2025, 17:18
  • FELISCUNHA: Votos de um santo domingo para todo o auditório  4tj97u<z
    29 de Junho de 2025, 11:59
  • m1957: Foi de boa vontade!
    28 de Junho de 2025, 00:39
  • j.s.: passem f.v. por aqui [link]    h7t45
    27 de Junho de 2025, 17:20
  • j.s.: renovamos o nosso pedido para uma pequena ajuda para pagemento  do nosso forum
    27 de Junho de 2025, 17:19
  • j.s.: h7t45 aos convidados de honra Felizcunha e M1957 pela ajuda
    27 de Junho de 2025, 17:15
  • j.s.: dgtgtr a todos  4tj97u<z
    27 de Junho de 2025, 17:13
  • FELISCUNHA: ghyt74  pessoal  4tj97u<z
    27 de Junho de 2025, 11:51
  • JPratas: try65hytr A Todos  classic k7y8j0
    27 de Junho de 2025, 04:35
  • m1957: Por favor vaamos todos dar uma pequena ajuda, para não deixar encerrar o fórum! Obrigado.
    26 de Junho de 2025, 23:45
  • FELISCUNHA: j.s. enviei PM  101041
    26 de Junho de 2025, 21:33
  • FELISCUNHA: try65hytr  pessoal   htg6454y
    26 de Junho de 2025, 21:33
  • JPratas: try65hytr Pessoal  4tj97u<z
    26 de Junho de 2025, 02:28
  • cereal killa: Boa Tarde Pessoal E com enorme tristeza que depois de 15 anos que idealizei e abri este fórum vejo que esta na iminência de fechar portas porque ninguém tenta ajudar o pagamento do servidor, mas cada ano e sempre difícil arranjar almas caridosas que nos bom ajudando mas este ano esta complicado, mas infelizmente e como diz o j.s dia 5/07 se não houver algumas ajudas esta vez vai mesmo fechar…..e pena e triste mas tudo na vida tem fim. obrigada cereal killa
    25 de Junho de 2025, 19:40
  • j.s.: [link]
    23 de Junho de 2025, 15:58
  • j.s.: a todos um excelente S. João
    23 de Junho de 2025, 15:48
  • j.s.: se não houver alteração ao nosso pedido
    23 de Junho de 2025, 15:46

Autor Tópico: Reducing Dimensions in Data with scikit-learn  (Lida 555 vezes)

0 Membros e 1 Visitante estão a ver este tópico.

Offline mitsumi

  • Sub-Administrador
  • ****
  • Mensagens: 121842
  • Karma: +0/-0
Reducing Dimensions in Data with scikit-learn
« em: 19 de Abril de 2019, 11:49 »

Reducing Dimensions in Data with scikit-learn
MP4 | Video: AVC 1280x720 | Audio: AAC 44KHz 2ch | Duration: 2.5 Hours | 274 MB
Genre: eLearning | Language: English

This course covers a wide range of the important techniques of dimensionality reduction and feature selection available in scikit-learn, allowing model builders to optimize model performance by reducing overfitting, save on model training time and...

Dimensionality Reduction is a powerful and versatile machine learning technique that can be used to improve the performance of virtually every ML model. Using dimensionality reduction, you can significantly speed up model training and validation, saving both time and money, as well as greatly reduce the risk of overfitting. In this course, Reducing Dimensions in Data with scikit-learn, you will gain the ability to design and implement an exhaustive array of feature selection and dimensionality reduction techniques in scikit-learn. First, you will learn the importance of dimensionality reduction, and understand the pitfalls of working with data of excessively high-dimensionality, often referred to as the curse of dimensionality. Next, you will discover how to implement feature selection techniques to decide which subset of the existing features we might choose to use, while losing as little information from the original, full dataset as possible. You will then learn important techniques for reducing dimensionality in linear data. Such techniques, notably Principal Components Analysis and Linear Discriminant Analysis, seek to re-orient the original data using new, optimized axes. The choice of these axes is driven by numeric procedures such as Eigenvalue and Singular Value Decomposition. You will then move to dealing with manifold data, which is non-linear and often takes the form of swiss rolls and S-curves. Such data presents an illusion of complexity, but is actually easily simplified by unrolling the manifold. Finally, you will explore how to implement a wide variety of manifold learning techniques including multi-dimensional scaling (MDS), isomap, and t-distributed Stochastic Neighbor Embedding (t-SNE). You will round out the course by comparing the results of these manifold unrolling techniques with different datasets, including images of faces and handwritten data. When you're finished with this course, you will have the skills and knowledge of Dimensionality Reduction needed to design and implement ways to mitigate the curse of dimensionality in scikit-learn.
           

               
 
Download link:
Só visivel para registados e com resposta ao tópico.

Only visible to registered and with a reply to the topic.

Links are Interchangeable - No Password - Single Extraction