投稿

gpt-oss-20bの検証

gpt-oss-20bの検証 gpt-oss-20bの検証 OpenAIがローカルLLMの gpt-oss を公開しました! 今回「 gpt-oss-20b 」と「 gpt-oss-120b/b>」の2つのモデルが公開されており、 gpt-oss-20b はなんと16GBのVRAMで動作するモデルになります!! 今回はこの「 gpt-oss-20b 」の効果検証を実施したため、その際のインプットとアウトプットを紹介しようと思います。 なお、この内容はYouTubeで公開した動画内で実行したものになるので、よければ動画も参考にしてください。 https://youtu.be/UioXhzRkxdM 一般的なタスク まずは、一般的なタスクです。 ニュース記事を連携して、要約をしてもらいます。 プロンプト 次の文章を要約してください。 ###ニュース記事 マクドナルドと「ポケットモンスター」のコラボレーションとして、8月9日から『ポケモンカードゲーム』の限定カード全5種類が配布されている。 マクドナルドとメルカリは共同で転売などの対策を行うとしていたが、連休初日となる9日、マクドナルドには多くの人が殺到し、混乱が発生。 マクドナルド公式アプリには、限定カードの早期配布終了や混雑に対する謝罪文が掲載されるまでになっている。 『ポケカ』コラボ開始前に、マックとメルカリは共同で対策を実施 今回の「ポケットモンスター」とのコラボレーションは、8月8日から実施。通常期間はピカチュウをはじめとするポケモンのおもちゃがおまけとなっており、『ポケモンカードゲーム』の配布は9日(土)~11日(月)の限定の施策として行われている。 今回のおまけの需要が高いことは認識されており、マクドナルドとメルカリは共同で対策を行うと発表。 マクドナルド側は1人5つまでという購入制限を設けたほか、サイト上...

【自作ツール】プロジェクトをNotebookLMのソースに

プロジェクトをNotebookLMのソースに 【自作ツール】プロジェクトをNotebookLMのソースに 最近話題のAIノートアプリ「 NotebookLM 」は本当に便利です。ドキュメントを読み込ませるだけで、内容の要約や質疑応答ができてしまう優れものです。 これを「自作プログラムのソースコード分析にも使いたい!」と考えたことがある開発者の方も多いのではないでしょうか?しかし、ここに一つ大きな壁があります。 NotebookLMはソースコードをそのまま使えない。 NotebookLMは非常に優秀ですが、残念ながらC#やJavaなどのソースコードファイル(.csや.javaなど)を直接アップロードして分析することはできません。そのため、一度マークダウン形式に手作業でコピペする。。などの手間が発生してしまいます。これではせっかくの効率化ツールも宝の持ち腐れです。 GitHubのプライベートリポジトリは使えない 「GitHubリポジトリを連携させれば良いのでは?」と思うかもしれません。確かにその方法もありますが、連携できるのはパブリックリポジトリ(公開リポジトリ)のみです。 つまり、「まだ公開していない開発中のプロジェクト」や「ローカルのプロジェクトファイル」などは、対象外になってしまいます。 そこで、そういった課題に対応できる「 ProjectAnalyzer 」を開発しました。 もちろん、公開リポジトリであれば uithub などのオンラインツールを使うこともできますが、ローカルプロジェクトには対応できません。だからこそローカルで動作するこのツールを開発しました。 ProjectAnalyzer ProjectAnalyzer 」を開発しました。 ...

Angularのサンプルプロジェクト「家計簿アプリ (KakeiboApp)」について

Angularのサンプルプロジェクトについて Angularのサンプルプロジェクトについて この記事では、Angular CLI バージョン18.1.0で生成された「 家計簿アプリ (KakeiboApp) 」プロジェクトの内容を詳細に解説します。このアプリは、ユーザーが収入と支出を記録し、現在の残高や取引履歴を確認したり、支出の分類別グラフを表示したりできるシンプルな家計簿アプリケーションです。 プロジェクト全体はGithubにアップロードしておりますので、合わせて参考にしてください。 ・ https://github.com/flying-YT/kakeibo-app/tree/main なお、本アプリをベースに演習問題を作成してみました。Angularに興味ある方は是非試してみてください。 ・ 実践!手を動かして学ぶAngular演習問題 プロジェクト概要 本家計簿アプリは、Angularのコンポーネントとサービスを効果的に利用し、リアクティブなデータ管理にはAngularのSignal機能を採用しています。また、グラフ表示にはChart.jsとng2-chartsライブラリが活用されています。アプリケーションの全体的なスタイルは src/styles.css で定義されており、カードスタイル、タイポグラフィ、テーブル、ボタン、フォーム、ナビゲーションなどの共通スタイルが含まれています。 主要コンポーネントの紹介 Angularアプリケーションは、独立した機能を持つコンポーネントによって構成されます。本プロジェクトの主要なコンポーネントとその役割について説明します。 AppComponent: アプリケーションの骨格 AppComponentは、アプリケーション全体のレイアウトを定義するルートコンポーネントです。 目的: アプリケーションのタイトル、メインナビゲーション、そしてルーティングに基づいて各画面のコンポーネントが表示されるメイ...

実践!手を動かして学ぶAngular演習問題

実践!手を動かして学ぶAngular演習問題 実践!手を動かして学ぶAngular演習問題 こんにちは。私は会社が最近フロントエンドフレームワークである Angular を採用したため Angular の勉強をしています。 ある程度自分でアプリを構築できるようになってきたため、やはり実際にアプリを作るほうが習得が早いなと思うのと、こういった環境を提供したい気持ちもあったので今回Angularの演習問題を作成してみました! この演習は、家計簿アプリケーションを題材にしており、基本的なデータ表示からインタラクティブな機能追加まで、段階的に実装を進めていく形式です。 Angularの基礎文法やコンセプトを学んだ後、「次に何をすれば良いかわからない」「実際に手を動かしてみたい」という方に最適な内容となっています。ぜひチャレンジしてみてください! 演習問題の始め方 演習を始めるには、まずご自身の開発環境にプロジェクトをクローンする必要があります。 リポジトリのクローン 下記のコマンドを実行して、演習問題用のブランチ( exercise-start )をクローンします。 git clone -b exercise-start https://github.com/flying-YT/kakeibo-app.git プロジェクトディレクトリへ移動 cd kakeibo-app 依存パッケージのインストール プロジェクトに必要なライブラリをインストールします。 npm install 開発サーバーの起動 下記のコマンドでアプリケーションをビルド...

ローカルLLMとWhisperで作る、完全オフライン議事録作成ツール

イメージ
ローカルLLM(gemma-3-12b-it)とWhisperで作る、完全オフライン議事録作成ツール ローカルLLMとWhisperで作る、完全オフライン議事録作成ツール 最近のAIの進化、特に大規模言語モデル(LLM)の発展には目を見張るものがあります。クラウドベースの強力なモデルが次々と登場する一方で、「ローカル環境で動くLLM」も驚くべきスピードで進化しています。 今回は、そんなローカルLLMの「今」とそれを使ってプライバシーも安全な完全ローカル環境で動作する「音声からの議事録作成プログラム」を紹介します。 なおこの記事は、Pythonのプログラムを元に生成AIがベースを作成したものです。最終的には人が手直しをしていますがご認識おきください。 ローカルLLMでセキュリティとカスタマイズ性を手元に 「LLMって便利だけど、会社の機密情報を含むデータを外部APIに送信するのはちょっと、、」と感じる方も多いのではないでしょうか。 ローカルLLMなら、その心配は無用です! セキュリティ・プライバシー データが外部に出ないため、機密情報を扱う業務にも安心して利用できます。 オフライン動作 インターネット接続がない環境でも利用可能です。 コスト API利用料を気にせず、好きなだけ試行錯誤ができます。(初期のハードウェア投資は考慮が必要) カスタマイズ性 モデルによっては、特定のタスクに合わせてファインチューニングすることも可能です。 ...

プロンプトチューニングの勉強会と検証

イメージ
プロンプトチューニングの勉強会 プロンプトチューニングの勉強会と検証 私は普段ローカルLLMの検証などを実施していますが、より活用するためにプロンプトチューニングを勉強しています。 そのため、今回は私が学んだ内容で資料を作成したので、公開したいと思います。 勉強会資料 この勉強会では、LLMやSLMの基本知識から説明し、プロンプトチューニングの原則と簡単なサンプルを紹介します。 なお、動画も公開しているので合わせて参考にしてください。 検証 今回勉強会で扱ったプロンプトチューニングについて、ローカルLLMで効果検証をしたいと思います。 利用するモデルは、以前公開した SB Intuitions のSarashina2.2の1Bモデルになります。 こちらのモデルについて、基本的なタスクは実行できるのですが、数値指定の処理が苦手で、「5つ抽出して」などのタスクで6つ以上抽出してしまうことが多々ありました。 そんなモデルであってもプロンプトをチューニングすることで、処理できるようになるのかを見ていきたいと思います。 なお、このモデルの紹介をした際のブログは下記です。 SB IntuitionsのSarashina2.2検証結果 検証準備 まず使用したプログラムは、以前の検証で利用したものをベースにプロンプトを見やすくするために一部変数管理するように改修を加えています。 from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer model_path = "sbintuitions/sarashina2.2-0.5b...