wjohn1483.github.io
  • Posts
  • Archive
  • Audio to Scene
  • Give Feedback
  • About

Home

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

這篇介紹一下常常聽到的BERT是怎麼樣運作的。

Read more

  • Paper
  • Natural-Language-Processing
  • Mar 29, 2020

Terminal小工具

這篇記錄一下我在terminal裡面常使用的一些小工具們。

Read more

  • Tool
  • Mar 28, 2020

Deep contextualized word representation

這篇簡單介紹一下赫赫有名的ELMo,其源自於Deep contextualized word representation這篇paper。

Read more

  • Paper
  • Natural-Language-Processing
  • Mar 23, 2020

Attention Is All You Need

這篇文章想要簡介一下被廣泛使用的Transformer是什麼。

Read more

  • Paper
  • Natural-Language-Processing
  • Mar 21, 2020

Vim Plugins

這邊記錄一下我目前所使用的Vim plugin以及它們的功能。

Read more

  • Tool
  • Mar 09, 2020

Gradient Descent和Learning Rate

稍微講一下Machine Learning當中經常被使用的gradient descent的概念以及調整learning rate的方法。

Read more

  • Machine-Learning
  • Mar 07, 2020

Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

這篇paper想要去尋找一個最佳的初始化參數,讓model可以在各個task上都可以得到不錯的表現。

Read more

  • Paper
  • Meta-Learning
  • Mar 06, 2020

Self-Supervised Generalisation with Meta Auxiliary Learning

通常在訓練的時候,如果能有一些輔助的任務(task),通常會對主要的任務在效能上有所提升,然而這些輔助任務的答案通常會需要人類來標注,並不能隨意的想加輔助任務就加輔助任務,而這篇文章要介紹的NeurIPS 2019的Self-Supervised Generalisation with Meta Auxiliary Learning,將輔助任務的答案都用機器來產生,免去了準備輔助任務答案的麻煩。

Read more

  • Paper
  • Meta-Learning
  • Auxiliary-Learning
  • Mar 01, 2020

57 post articles, 8 pages.

  • 1
  • 5
  • 6
  • 7
  • 8
Search