株式会社ずんだもん技術室AI放送局

著者: 株式会社ずんだもん技術室AI放送局
  • サマリー

  • AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
    続きを読む 一部表示

あらすじ・解説

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
エピソード
  • 私立ずんだもん女学園放送部 podcast 20250411
    2025/04/10
    関連リンク
    • Build Enterprise AI Agents with Advanced Open NVIDIA Llama Nemotron Reasoning Models NVIDIA Technical Blog

    NVIDIAが、AIエージェント構築向けの「Llama Nemotron」推論モデルを発表しました(2025年3月)。このモデルは、複雑な問題解決や推論に特化しており、顧客サポートやサプライチェーン最適化など、様々な分野での応用が期待されています。

    Llama Nemotronは、Nano(8B)、Super(49B)、Ultra(253B)の3つのサイズで提供され、用途や計算リソースに合わせて選択可能です。特にSuperモデルは、データセンターGPUでの高いスループットと精度を両立しています。

    これらのモデルは、推論能力のON/OFFをシステムプロンプトで切り替えられる点が特徴で、推論が必要なタスクとそうでないタスクの両方に対応できます。NVIDIA NeMoフレームワークを活用した学習プロセスを経ており、高品質な推論能力を実現しています。

    引用元: https://developer.nvidia.com/blog/build-enterprise-ai-agents-with-advanced-open-nvidia-llama-nemotron-reasoning-models/

    • Prevent LLM Hallucinations with the Cleanlab Trustworthy Language Model in NVIDIA NeMo Guardrails NVIDIA Technical Blog

    LLMの誤った応答(ハルシネーション)を防ぐため、NVIDIA NeMo GuardrailsとCleanlab Trustworthy Language Model (TLM)の連携を紹介。NeMo Guardrailsは、AIエージェントの安全性を確保するフレームワークで、TLMはLLMの応答の信頼性を評価する。 具体的には、顧客サポートAIアシスタントを例に、TLMが不正確な情報を検出し、適切な応答を促す仕組みを解説。 TLMは、応答内容が企業のポリシーと整合しているかをチェックし、不確実な情報や誤解を招く可能性のある情報を排除。 これにより、LLMの信頼性を高め、顧客満足度向上に貢献する。 リポジトリでは、顧客サポートAIアシスタントのサンプルコードが提供されている。

    引用元: https://developer.nvidia.com/blog/prevent-llm-hallucinations-with-the-cleanlab-trustworthy-language-model-in-nvidia-nemo-guardrails/

    • KuruKuruDreams、「ペンギン冒険 (feat. ずんだもん)」を配信開始|THE MAGAZINE

    KuruKuruDreamsが「ペンギン冒険 (feat. ずんだもん)」をリリースしました。2025年4月11日に各種音楽配信サービスで配信開始。ずんだもんがフィーチャリングされた、エレクトロ、ボーカロイド、ポップの要素を含む楽曲です。

    引用元: https://magazine.tunecore.co.jp/newrelease/492853/

    • お便り投稿フォーム

    VOICEVOX:ずんだもん

    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250410
    2025/04/09
    関連リンク
    • MCP入門

    MCP(Model Context Protocol)は、AIが外部データやツールにアクセスする際の共通ルールです。従来、AIと外部システムを連携させるには個別実装が必要でしたが、MCPは接続方法を標準化し、開発の手間を減らします。

    MCPは、JSON-RPCを共通言語とし、初期化時に互いの機能を確認し合う仕組みです。ホスト(AI)、クライアント(セッション)、サーバ(データ/ツール)の3つの役割があり、LINEアプリに例えると理解しやすいでしょう。

    開発者は、ツールやリソースの登録、トランスポート層の選択などを行います。MCPは進化が早く、Streamable HTTPが推奨されるようになりました。公式サンプルコードを参考に、MCPサーバを構築してみましょう。

    引用元: https://zenn.dev/mkj/articles/0ed4d02ef3439c

    • Cursor,Windsurf,Github Copilotを課金して使い比べしてみた感想

    AIコーディングアシスタント「Windsurf」「Cursor」「GitHub Copilot」の比較記事です。著者は実際に課金して使用感を検証。CursorはGIFアップロード機能や柔軟なルール設定が魅力だが、従量課金のみ。WindsurfはCursorより安価だが、AIモデルとFlow Actionの制限あり。GitHub Copilotはコード品質が高く、VSCodeとの連携がスムーズ。月額料金も手頃。結論として、ルールを重視するならCursor、少しでも安く済ませたいならWindsurf、安定性を求めるならGitHub Copilotがおすすめとのことです。

    引用元: https://zenn.dev/service/articles/11c04773e90232

    • Ironwood: The first Google TPU for the age of inference

    Googleが第7世代TPU「Ironwood」を発表。推論処理に特化し、大規模言語モデル等に対応。最大9216チップで構成され、世界最大スパコンの24倍以上の計算能力(42.5Exaflops)を実現。前世代Trilliumと比較して、電力効率が2倍、メモリ容量が6倍、メモリバンド幅が4.5倍に向上。チップ間接続も強化。AI Hypercomputerの構成要素として、Google Cloudで利用可能になる予定。

    引用元: https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/

    • 北海道の珍味「タコの精巣」を料理して食レポ! 加熱すると中身がニュルッと飛び出すレア食材は“インパクト抜群の美味”だった:マピオンニュースの注目トピック

    ニコニコ動画に投稿された、北海道の珍味「タコの精巣」を料理して食レポする動画の記事です。

    引用元: https://www.mapion.co.jp/news/column/nico17489953/

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250409
    2025/04/08
    関連リンク
    • TechFeed - エンジニアのための技術情報収集&共有プラットフォーム

    TechFeedは、エンジニア向けに設計された情報収集・共有プラットフォームです。180以上の専門チャンネルで技術トレンドからニッチな情報まで網羅し、自動翻訳による海外情報へのアクセスも容易です。注目記事の自動厳選、記事の面白さを数値化するTechFeedスコア、パーソナライズ機能により、効率的な情報収集を支援します。ブックマーク、高度なシェア機能、コメント機能なども搭載。お仕事情報の提供や、技術情報収集の習慣化を促す機能も備えています。

    引用元: https://techfeed.io/entries/67f2f13efe15614dc4ce2659

    • Introducing AutoRAG: fully managed Retrieval-Augmented Generation on Cloudflare

    Cloudflareが提供するAutoRAGは、RAG(Retrieval-Augmented Generation)をフルマネージドで実現するサービスです。RAGは、LLM(大規模言語モデル)の精度を向上させる技術で、AutoRAGはデータ取り込みからベクトルデータベースへの格納、検索、応答生成までを自動化します。これにより、開発者は複雑な設定やメンテナンスから解放され、AIを活用したアプリケーション開発に集中できます。CloudflareのR2、Vectorize、Workers AIなどのサービスを組み合わせて構築されており、データソースとの連携、データ変換、チャンク化、埋め込み、ベクトル保存、クエリ処理などを自動で行います。

    引用元: https://blog.cloudflare.com/introducing-autorag-on-cloudflare/

    • Meta got caught gaming AI benchmarks

    Metaが開発したLlama 4の新型AIモデル「Maverick」について、ベンチマークテストで不正を行った疑いが浮上。MetaはLMArenaというAIベンチマークサイトで、公開版とは異なる「会話に最適化された実験版」のMaverickを使用し、競合のGPT-4oやGemini 2.0 Flashより高いスコアを獲得したと主張。しかし、この点が指摘され、LMArenaはポリシーを更新し、公平な評価を求める声明を発表。Metaは実験的なカスタム版を使用していたことを認めた。

    引用元: https://www.theverge.com/meta/645012/meta-llama-4-maverick-benchmarks-gaming

    • No elephants: Breakthroughs in image generation

    画像生成AIが進化し、LLMが直接画像を制御する「マルチモーダル画像生成」が登場しました。以前は別のツールにテキストを送り画像生成していましたが、新しい方式ではAIが文章を作るように画像をパーツごとに生成します。これにより、より正確で高品質な画像が作成可能に。「象のいない部屋」のような複雑な指示も、以前のシステムより遥かに正確に反映できます。インフォグラフィック作成や画像編集も可能で、手書きのラフを広告にしたり、写真の家具を別の写真のものと入れ替えたりできます。まだ完璧ではありませんが、画像生成AIの進化は目覚ましく、様々な分野への応用が期待されます。ただし、著作権や倫理的な問題も考慮する必要があります。

    引用元: https://www.oneusefulthing.org/p/no-elephants-breakthroughs-in-image

    • お便り投稿フォーム

    (株式会社ずんだもんは架空の登場組織です)

    続きを読む 一部表示
    1分未満

株式会社ずんだもん技術室AI放送局に寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。