📢 お知らせ
  • Twitterで話題の技術論文ランキング

    ツイッターで話題・人気の技術論文をランキング形式で集めたまとめです。

  • 【技術論文】素晴らしくblockchain spaceでのcryptographic stuffがまとまってるSoK Paper。 SoK of Used Cryptography in Blockchain

  • [PR]

  • 1 RT

    Osuke

    Osuke @zoom_zoomzo

    2019/06/22 16:29:21

    素晴らしくblockchain spaceでのcryptographic stuffがまとまってるSoK Paper。
    SoK of Used Cryptography in Blockchain


    https://arxiv.org/pdf/1906.08609.pdf

    このツイートをシェアする

  • プロフィール

  • Engineer @LayerXcom / Core developer Zerochain https://t.co/dRhqqbUneS
    フォロワー数:5206
  • [PR]

  • その他のTwitterで話題の技術論文

    ツイッターで話題・人気の技術論文をランキング形式で集めたまとめです。

  • 並び替え:
    件数  : 143件
    更新日 : 2022年9月23日 22時00分
  • 薬を飲んだ後は右側を下にして横になると、仰向けで寝たり座ったりしてるよりも1回の蠕動(胃腸の運動)あたり2倍以上の薬剤が溶解されて十二指腸に届く=早く効くかも。数値シミュレーションなのでエビデンスレベルは低めだけれど、ツライときは試してみてもなんだかよさ毛

  • 薬を飲んだ後は右側を下にして横になると、仰向けで寝たり座ったりしてるよりも1回の蠕動(胃腸の運動)あたり2倍以上の薬剤が溶解されて十二指腸に届く=早く効くかも。数値シミュレーションなのでエビデンスレベルは低めだけれど、ツライときは試してみてもなんだかよさ毛


    https://arxiv.org/pdf/2201.08736

    薬を飲んだ後は右側を下にして横になると、仰向けで寝たり座ったりしてるよりも1回の蠕動(胃腸の運動)あたり2倍以上の薬剤が溶解されて十二指腸に届く=早く効くかも。数値シミュレーションなのでエビデンスレベルは低めだけれど、ツライときは試してみてもなんだかよさ毛
    薬を飲んだ後は右側を下にして横になると、仰向けで寝たり座ったりしてるよりも1回の蠕動(胃腸の運動)あたり2倍以上の薬剤が溶解されて十二指腸に届く=早く効くかも。数値シミュレーションなのでエビデンスレベルは低めだけれど、ツライときは試してみてもなんだかよさ毛

    このツイートをシェアする

  • グレンジャーの因果性のレビューと最近の動向をまとめた論文があってよかった.グレンジャーの因果性俺は好き.

  • be

    be @bentheDPeness

    2022/09/19 00:18:32

    グレンジャーの因果性のレビューと最近の動向をまとめた論文があってよかった.グレンジャーの因果性俺は好き.


    https://arxiv.org/pdf/2105.02675.pdf

    このツイートをシェアする

  • 今流行りに流行ってるDiffusion Modelのサーベイ論文。 とりあえず読んどくべきな気がする。

  • 今流行りに流行ってるDiffusion Modelのサーベイ論文。
    とりあえず読んどくべきな気がする。


    https://arxiv.org/abs/2209.00796?fbclid=IwAR28BqVXPPOmgjD3o6-9Jwne0LBQlZIVl_ckDC--JoLNaLerCdrzxMPY-YQ

    今流行りに流行ってるDiffusion Modelのサーベイ論文。とりあえず読んどくべきな気がする。

    このツイートをシェアする

  • [PR]

  • カリフォルニア工科大学の研究 ・論文 ・動画

  • カリフォルニア工科大学の研究
    ・論文

    ・動画


    https://arxiv.org/pdf/2109.05113.pdf
    https://www.youtube.com/watch?v=gOhZlTypNIs

    このツイートをシェアする

  • arXivに新しい論文をアップしました!動物行動の自発的開始の前に準備電位が様々な動物「ザリガニからヒトまで」(Schurger+2012)で生じます。なぜそんなに広くしかも記録方法も問わず観察されるのか?その背後には自己組織化臨界現象があるからだという主張です。

  • Katsushi Kagaya

    Katsushi Kagaya @katzkagaya

    2022/09/20 10:39:56

    arXivに新しい論文をアップしました!動物行動の自発的開始の前に準備電位が様々な動物「ザリガニからヒトまで」(Schurger+2012)で生じます。なぜそんなに広くしかも記録方法も問わず観察されるのか?その背後には自己組織化臨界現象があるからだという主張です。

    https://arxiv.org/abs/2209.09075

    このツイートをシェアする

  • イグ・ノーベル経済学賞「才能ある人ではなく運のいい人が成功する理由を数学的に説明」 能力の多寡は正規分布にしたがうのに、富はべき乗則で分配されている。おかしい。つまりおれがこんなに不遇なのは、運が悪かっただけ。ったく。ーーというのを証明した、らしいです。

  • イグ・ノーベル経済学賞「才能ある人ではなく運のいい人が成功する理由を数学的に説明」
    能力の多寡は正規分布にしたがうのに、富はべき乗則で分配されている。おかしい。つまりおれがこんなに不遇なのは、運が悪かっただけ。ったく。ーーというのを証明した、らしいです。


    https://doi.org/10.48550/arXiv.1802.07068

    イグ・ノーベル経済学賞「才能ある人ではなく運のいい人が成功する理由を数学的に説明」能力の多寡は正規分布にしたがうのに、富はべき乗則で分配されている。おかしい。つまりおれがこんなに不遇なのは、運が悪かっただけ。ったく。ーーというのを証明した、らしいです。

    このツイートをシェアする

  • ま、すでに何度も各所で話題になっていると思うが一応共有。NeurIPS 22に出る予定のこの論文によれば、言語・画像・音声*以外の*データ(変な言葉だが、「表データ」と呼ぶ)に関して、普通に深層学習を回しても、ブースティング木などの古典手法に勝てない。

  • Tsuyoshi Ide (井手 剛)

    Tsuyoshi Ide (井手 剛) @Idesan

    2022/09/21 05:10:30

    ま、すでに何度も各所で話題になっていると思うが一応共有。NeurIPS 22に出る予定のこの論文によれば、言語・画像・音声*以外の*データ(変な言葉だが、「表データ」と呼ぶ)に関して、普通に深層学習を回しても、ブースティング木などの古典手法に勝てない。


    https://arxiv.org/abs/2207.08815

    このツイートをシェアする

  • [PR]

  • グーグルAI研究(PaLI:Pathways Language and Image model) テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用

  • グーグルAI研究(PaLI:Pathways Language and Image model)

    テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用


    https://arxiv.org/abs/2209.06794

    グーグルAI研究(PaLI:Pathways Language and Image model)テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用
    グーグルAI研究(PaLI:Pathways Language and Image model)テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用
    グーグルAI研究(PaLI:Pathways Language and Image model)テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用
    グーグルAI研究(PaLI:Pathways Language and Image model)テキスト+画像からテキストを出力するAI。複数タスクで最高性能。データセット「WebLI」を構築(画像+テキスト100億組。100言語以上)。言語モデル「mT5-XXL(130億パラ)」と視覚モデル「ViT-e(40億パラ)」利用

    このツイートをシェアする

  • 「何故樹木モデル(xgboostやランダムフォレストなど)は今でもテーブルデータに対する性能で深層学習を上回るのか」というNeurIPS2022論文。曰く「NNが樹木モデルに確実に勝つためにはテーブルデータ専用NNを作る必要がある」とのこと。3つの樹木モデルの特長にも言及あり

  • TJO

    TJO @TJO_datasci

    2022/09/21 17:37:38

    「何故樹木モデル(xgboostやランダムフォレストなど)は今でもテーブルデータに対する性能で深層学習を上回るのか」というNeurIPS2022論文。曰く「NNが樹木モデルに確実に勝つためにはテーブルデータ専用NNを作る必要がある」とのこと。3つの樹木モデルの特長にも言及あり


    https://arxiv.org/abs/2207.08815

    このツイートをシェアする

  • Metaが「Hydra Attention」を発表してる。 Attention Headの数が多いからヒドラって名付ける厨二病な感じ嫌いじゃないし、実際スピードアップしながら精度を損なわない感じっぽい。

  • Metaが「Hydra Attention」を発表してる。
    Attention Headの数が多いからヒドラって名付ける厨二病な感じ嫌いじゃないし、実際スピードアップしながら精度を損なわない感じっぽい。


    https://arxiv.org/pdf/2209.07484.pdf

    Metaが「Hydra Attention」を発表してる。Attention Headの数が多いからヒドラって名付ける厨二病な感じ嫌いじゃないし、実際スピードアップしながら精度を損なわない感じっぽい。

    このツイートをシェアする

📢 他にも以下のサービスを運営しています