[フレーム]
はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

気に入った記事をブックマーク

  • 気に入った記事を保存できます
    保存した記事の一覧は、はてなブックマークで確認・編集ができます
  • 記事を読んだ感想やメモを書き残せます
  • 非公開でブックマークすることもできます
適切な情報に変更

エントリーの編集

loading...

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。

タイトルガイドライン

このページのオーナーなので以下のアクションを実行できます

タイトル、本文などの情報を
再取得することができます
コメントを非表示にできます コメント表示の設定

ブックマークしました

ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください

Twitterで共有

ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します

181users がブックマーク コメント 6

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

M1MacでOllamaを試したら爆速で驚いた

181 users zenn.dev/yasuna

ガイドラインをご確認の上、良識あるコメントにご協力ください

0 / 0
入力したタグを追加

現在プライベートモードです 設定を変更する

おすすめタグタグについて

よく使うタグ

はてなブックマーク

はてなブックマークで
関心をシェアしよう

みんなの興味と感想が集まることで
新しい発見や、深堀りがもっと楽しく

ユーザー登録

アカウントをお持ちの方はログインページ

記事へのコメント6

  • 注目コメント
  • 新着コメント
d0i
職場の詳しい人は当初からM1みたいなアーキテクチャが推論に最適だと指摘してた。GPUはtransformerの推論には向いてないらしい

その他
agricola
量子化済みのモデル使うからしょっぱいCPUとメモリでもそこそこ動くし、貧相なグラボも使ってくれるollamaさん。

その他
misshiki
"MacOSでOllamaを入れてLlama3を動かしてみました。"

その他
puhu208n
Appleの詐欺グラフで未だに誤解してる奴がちらほらまだ居るが、あれ中身別物のノート版との比較で、デスク版と比較したらUltraでも3060Tiに負けるからな。NVIDIAがノート・デスクのコア統一を黙って止めたのを悪用してる。

その他
d0i
d0i 職場の詳しい人は当初からM1みたいなアーキテクチャが推論に最適だと指摘してた。GPUはtransformerの推論には向いてないらしい

2024年05月19日 リンク

その他
zgmf-x20a
先日のAI24時間ハッカソン大阪で我々のチームは、64GBのMakBookProでCommandR/ollama0.1.36を実行した。20GBのモデルなので64GBの主記憶は奏効した。

その他
agricola
agricola 量子化済みのモデル使うからしょっぱいCPUとメモリでもそこそこ動くし、貧相なグラボも使ってくれるollamaさん。

2024年05月19日 リンク

その他
dp212
そういえば、大昔androidのLlamaってヤツでカスタマイズして遊んでたなぁ...と思い出したw

その他

注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

リンクを埋め込む

以下のコードをコピーしてサイトに埋め込むことができます

プレビュー
アプリのスクリーンショット
いまの話題をアプリでチェック!
  • バナー広告なし
  • ミュート機能あり
  • ダークモード搭載
アプリをダウンロード

関連記事

usersに達しました!

さんが1番目にブックマークした記事「M1MacでOllamaを試...」が注目されています。

気持ちをシェアしよう

ツイートする

M1MacでOllamaを試したら爆速で驚いた

はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今... はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけるようになりました。 ずっと気になっていたのでついに私のM1 Macでも動くかどうかやってみました! 結論、爆速で推論できていたのでとても驚きました。OSS開発に感謝です! Ollamaとは OllamaとはローカルでLLMを動かすことができるアプリケーションです。 以下からダウンロードできます。 MacOSLinuxで使うことができます。Windowsもプレビュー版があるみたいです。 #いざ推論 ダウロードができたらシ

ブックマークしたユーザー

  • y-teraoka2025年08月14日 y-teraoka
  • funghi_seven2025年06月03日 funghi_seven
  • hamati6662024年12月26日 hamati666
  • techtech05212024年07月02日 techtech0521
  • nakakzs2024年07月01日 nakakzs
  • rawwell2024年06月21日 rawwell
  • razokulover2024年06月20日 razokulover
  • tackun_hate2024年05月26日 tackun_hate
  • shakeisan2024年05月23日 shakeisan
  • asa_kaz_x2024年05月20日 asa_kaz_x
  • jun_okuno2024年05月20日 jun_okuno
  • tonkas2024年05月20日 tonkas
  • misshiki2024年05月20日 misshiki
  • pukuman2024年05月20日 pukuman
  • lasherplus2024年05月20日 lasherplus
  • enemyoffreedom2024年05月20日 enemyoffreedom
  • yut1482024年05月20日 yut148
  • BuchuntaGo2024年05月20日 BuchuntaGo
すべてのユーザーの
詳細を表示します

ブックマークしたすべてのユーザー

同じサイトの新着

同じサイトの新着をもっと読む

いま人気の記事

いま人気の記事をもっと読む

いま人気の記事 - テクノロジー

いま人気の記事 - テクノロジーをもっと読む

新着記事 - テクノロジー

新着記事 - テクノロジーをもっと読む

同時期にブックマークされた記事

いま人気の記事 - 企業メディア

企業メディアをもっと読む

はてなブックマーク

公式Twitter

はてなのサービス

Copyright © 2005-2025 Hatena. All Rights Reserved.
設定を変更しましたx

AltStyle によって変換されたページ (->オリジナル) /