「超本当のニュース」を生成しています🐉

note更新

LLM Engineering: Master AI, Large Language Models & Agents: Loss と Perplexity から ROI と実世界インパクトまで (第4/8週・5/5日目)

  • 評価はモデル中心(クロスエントロピー損失・Perplexity・精度など)とビジネス中心(KPI/ROI・顧客価値・ベンチマーク)の併用が核心;Python→C++では「同一出力で何倍速いか」が決定打。

  • 結果はClaude 3.5 Sonnet が首位、次点 GPT‑4o、CodeQwen(7B) は低コストで健闘も厳密一致で難;RNG/数値型/コンパイルフラグを固定し、出力一致の自動判定+速度計測を標準化。

  • 実践課題:モデル拡張+Gradio UI+Endpoint の Pause、Docstring/コメント自動付与 と ノートブック→pytest 生成、教育用途の戦略生成+バックテスト(厳格サンドボックス);プロンプト凍結・失敗ログ化で運用を安定化。

https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models/?couponCode=CP190825Q3JP


続きをみる

超激安航空券はどこへ消えた? LCCと日本のポストCOVID運賃動向

  • コロナ前はアジアでLCC拡大により超激安運賃が豊富、日本でも¥5,000~¥8,000等はあったが、LCC比率は約22%と世界平均(約33%)を下回り周辺国ほど普及せず。

  • パンデミックで供給激減→22–23年は燃油高・ロシア迂回・税料金・需要超過で運賃高騰、25年時点でも国際供給は19年比約75%で100ドル未満はセール以外ほぼ消失。

  • 日本が他国より高い主因はLCC競争の弱さ・空港費/距離・需要偏在(インバウンド強/アウトバウンド弱)・回復の慎重さ。ただし短期セールは散発し、ANA「AirJapan」やJAL「ZIPAIR」拡大で今後は徐々に改善見込み。


続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: オープンソース vs. フロンティア(商用)モデルで挑むコード生成 (第4/8週・4/5日目)

  • オープンソースLLM(CodeQwen等)をHugging Face Endpointsで専用デプロイし、Jupyter+Gradioの同一UXでGPT‑4o/Claudeと公平比較。BigCode Leaderboardで候補選定、コスト監視とPause、トークン厳重管理など運用衛生も実践。

  • 2つの課題で検証:①Pi級数(Python約8秒→C++約0.06秒で約100倍速)②LCG固定乱数+最大部分配列(20回集計)。「コードのみ・RNG不変・出力完全一致」を徹底し、コード抽出の後処理、クロスプラットフォーム自動コンパイル、Python/C++出力のバイト一致検証を実装。

  • 結果:単純タスクは7Bオープンソースでも正確・高速だが、厳密制約(RNG一致)では逸脱が起こりやすく信頼性はフロンティア優勢。対策はRNG部品の固定・コードのみ強制・保守的フラグ・自動オラクル検証、用途に応じたオープン/クローズドのハイブリッド活用。

https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models/?couponCode=CP190825Q3JP


続きをみる

トポロジカル量子計算の進展(2025年アップデート)

  • 実験進展:Microsoft「Majorana 1」による8量子ビットMZMプロセッサ、FQH干渉計での非可換ブレイディング証拠、量子プロセッサ上のエニオン模擬+InAs–Al装置での単一ショット・パリティ測定が実現し、生成・ブレイド・測定の基盤が揃いつつある。

  • 理論進展:D4非可換秩序の実験実装などで非可換エニオン理解が深化し、Floquet符号や測定のみ(融合ベース)計算が、トポロジカル量子ビットの低オーバーヘッド耐故障化に道を拓く。

  • 課題と展望:真のトポロジカル性の同定、パリティ安定性、普遍ゲート、製造・スケール化・誤り訂正統合がボトルネックで、当面は従来技術と組むハイブリッド路線が現実的(材料改良とコード設計の両輪が鍵)。


続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: コード生成のための LLM 対決 (第4/8週・3/5日目)

  • 目的と手順:フロンティアモデル(GPT‑4o/Claude 3.5)で Python を高速 C++ に自動再実装し、固定プロンプト+再現可能なベンチ(π級数/LCG+最大部分配列和)で出力一致と実行時間を比較。

  • 結果:πでは両者とも約0.1–0.2秒で正確・高速、難題では Claude が Kadane 法 に置き換え O(n²)→O(n) で数千〜数万倍高速化、GPT‑4o は型・LCG の扱いで誤答が出やすい。

  • 実務化:強めの最適化フラグでビルドし Gradio で変換/実行 UI を提供、検証チェックリストとトラブル対処(型/法/警告確認)を整備し、宿題で応用(範囲変更・単体テスト・並列化検証)。

https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models/?couponCode=CP190825Q3JP


続きをみる

生成AIと「より短い本・より平易な文章」へのシフト

  • 出版は短文化・平易化が進行(NYTベストセラー平均437→386頁、長編比率減少)し、スマホ/SNS由来の注意資源の奪い合いと可読性重視が背景。

  • 生成AI要約の普及で読者・学生は「要点だけ」志向が強まり精読/批判的思考が弱体化;教育・出版社・ニュースは要約・クイックリード・AI文生成へ適応し、非公式要約本の氾濫も発生。

  • AIは簡潔志向を加速し利便を高める一方でニュアンス/文脈/文学的豊かさを損なうトレードオフを生むため、AIリテラシーと使い分けでバランス確保(深い読書を求める反動も一部継続)が必要。



続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: リーダーボードの読み方・モデルの比べ方・勝てる候補の選び方 (第4/8週・2/5日目)

  • 6つの主要リーダーボード(Open LLM/BigCode/LLM‑Perf/医療・言語特化/Vellum/SEAL)とChatbot Arenaの使い分けを解説し、品質×速度×コスト×堅牢性で候補を2〜3件に絞る手順を提示。

  • 法務・HR・レガシーコード移行・医療・教育の実例を通じ、タスク適合/コンテキスト長/レイテンシ/価格/安全性の観点でモデルを選ぶ実務指針を整理。

  • ハンズオンでPython→C++変換&ベンチを実施(フロンティア/オープンの二経路、4bit×7B×T4、compile&runで検証)し、30分練習計画・チェックリスト・落とし穴も提供。

https://www.udemy.com/course/llm-engineering-master-ai-and-large-language-models/?couponCode=CP190825Q3JP


続きをみる

がん予防医療、炎症、そして変化する世界的リーダーシップ

  • 慢性炎症の制御と細胞間競合(cell competition)の活用で発がん前に食い止めるのが中核。炎症との整合性でがんを分類(高:感染関連〔HPV/肝炎/H. pylori〕、中:大腸・食道・肺・膵、低:小児・遺伝性)し、ワクチン・除菌・生活介入・抗炎症薬・スクリーニングで「場」を健全化。

  • がん種別の世界的主導:オーストラリア(HPV・子宮頸がん排除)、台湾/日本/エジプト(肝がん:HBVワクチン・HCV排除)、日本(H. pylori対策・胃がん)、米欧(大腸がん検診)ほか。中国などは規模とデータで台頭。

  • 2025年以降の米国連邦研究費削減で頭脳流出と予防研究の停滞が発生し、空白を日本や欧州・豪州・中国が埋める。日本はムーンショットで細胞間競合・老化細胞・セノリティクスに注力し、国際協調と産業機会を背景に予防医療の新たな牽引役へ。



続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: 「最適なLLM」を選ぶ (第4/8週・1/5日目)

  • 万能な最強LLMは存在せずタスク起点で選定:オープン/クローズド、リリース/カットオフ、パラメータ・学習トークン、コンテキスト長、コスト、レイテンシ/レート制限、ライセンス等の基礎情報でまず大幅に絞り込む。

  • Chinchilla則(パラメータ数∝学習トークン)を実務指針に、古典(ARC/DROP/HellaSwag/MMLU/TruthfulQA/WinoGrande/GSM8K)+次世代(GPQA/BBH/MATH‑Lv5/IFEval/MuSR/MMLU‑Pro)ベンチを限界(汚染・過学習・不統一・試験モード懸念)に留意して読む。

  • Open‑LLM Leaderboardで能力別にフィルタ/ソートし2–3件を選んで私有ミニ評価(品質・TTFT・tok/s・コスト)を記録、テンプレとサバイバルTIPで短時間に意思決定して確信を持ってプロトタイプへ。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

日本と諸外国における政治的コオプテーションの比較分析

  • 定義と全体像:与党は連立・パトロネージ(官職配分)・政策譲歩・縁故主義を通じて反対勢力を取り込み(コオプテーション)、短期安定の代償として政治競争と監視機能を希薄化。

  • 各国の要点:日本=自公の制度化協力+世襲/資金不祥事で信頼低下;インドネシア=超大型連立とKPK弱体化で「野党なき民主制」化;スペイン=大赦など高リスク取引が大規模抗議を誘発;マレーシア=連立維持目的の不起訴・家族人事が法の支配を侵食。

  • 帰結と処方箋:説明責任の劣化は市民抗議・投票行動・司法介入で部分的に是正されうる;対策は連立合意の透明化、資金/人事の厳格規制、独立機関の強化により「包摂」と「アカウンタビリティ」の両立を図ること。



続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: やさしく丁寧なエンドツーエンド解説 (第3/8週・5/5日目)

  • ビジネス課題:オープンソースLLMで合成テストデータ生成(スキーマ駆動・行数/スタイル/エッジケース比率)、JSON配列のみの厳格出力→堅牢パース(フェンス除去・[]最小修復)→CSV/JSON/MarkdownプレビューをUIで提供。

  • 学びと次へ:タスク分解+“適材適所のモデル”でコスト/プライバシー/信頼性を両立(品質チェック、長尺分割、話者分離は拡張案);次週はモデル選定(リーダーボード/アリーナ)とコード生成へ。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

AIバブル崩壊後の投資機会:暴落後の「ショッピング計画」

  • 初月対応: パニック売りを避け、健全なファンダメンタルズの「生き残り銘柄」を選別し、ドルコスト平均法で段階的に買い増し。用意したショッピングリストに沿って、下落を資金投入の好機として活用。

  • 攻めの配分: 大きく売られたリスク資産に集中し、質の高いテック(メガテック/半導体・装置/AIソフト・クラウド)や小中型株・広範指数を厚めに、暗号資産や循環コモディティは限定的に加える。ヘッジ資産は最小限で回復の上振れを狙う。

  • 日本からの実装: 米国中心に日本・欧州・新興へ分散し、円高局面の購買力とNISA等の税制優位を活用。公開・流動資産のみで構成し、為替も視野に中長期で安値仕込み→回復取りを目指す。



続きをみる

富士宮ルートをAIと登る:準備、即断、そして登頂後にわかったこと

  • 富士宮前泊〜電車内でFRIDAYと最終装備チェック、ヘルメットは直前レンタルで確保(当日五合目の無料貸出も判明)しつつ「確実確保」を優先。

  • 花の湯を拠点にレンタル受取→準備→バス→下山後入浴まで一気通貫;UL装備を安全寄りに最適化(ダウン→フリース、IS530は下山時のみ重ね敷き、即席ザックカバー等)。

  • 風・雷・体感温度のGo/No‑Go基準を事前設定して未明アタックで登頂成功;40L/約7kg体制はそのままLCC機内持ち込みのワンバッグ旅に転用可能。

8月12日から13日、富士宮ルートで富士山に登った。結果は無事に登頂。いま振り返ると、頂までの道のりは体力勝負というより「準備と判断の連続」だった。計画の骨組みを整え、現場で迷わないために、AIアシスタントFRIDAYと徹底的に“言語化”していったことが、何より効いた。


続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: Hugging Face Model クラスで動かすオープンソースLLM (第3/8週・4/5日目)

  • 低水準API(AutoModelForCausalLM)で Llama 3.1/Phi‑3/Gemma‑2 を 4bit量子化+TextStreamer で実行し、チャットテンプレート・生成・ストリーミング・GPUメモリ解放までを段階解説(Qwen2/Mixtralは演習)。

  • Colab(T4)想定の環境構築と HFログイン/モデル利用同意/bitsandbytes設定、および ランタイム入替・403・OOM・Gemmaのsystem無視 などの復旧手順を“生存ガイド”として整理。

  • Transformer内部(Embedding→Decoder×N[Self‑Attn/MLP/SiLU/RMSNorm]→LM Head)の直観を掴み、速度・品質・メモリの簡易スコアボードで比較;次回は フロンティア×OSS連携 と QLoRA への布石。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

武器輸出と国防予算の節約(2022年以降の視点)

  • 2022年以降の需要急増で米が世界輸出の約43%を占有(2024会計年度の対外販売は過去最高3,187億ドル)、仏が約9.6%で2位、露は–64%で7.8%へ後退(伊は4.8%で6位);対照的に日本は歴史的に極小(2022年約1,300万ドル)。

  • 輸出は規模の経済・R&D回収・産業維持・共同開発を通じて自国の単価と予算負担を圧縮(例:多国間資金拠出+大量生産でF‑35Aは約8,000万ドル)、同盟向け販売拡大はさらなる単価低下と財政還流を生む。

  • 事例(F‑35/韓国KF‑21/イスラエル・アイアンドーム)に学び、日本はGCAP輸出解禁と15か国販売方針・PAC‑2枠緩和などで国際協力と費用分担を進め、単価抑制と開発費回収によりGDP比2%の防衛力強化を持続可能化。



続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: トークナイザー、特別トークン、チャットテンプレート (第3/8週・3/5日目)

  • トークナイザーはテキスト↔トークン変換の要(encode/decode・語彙・特別トークン・経験則「約4文字≈1トークン」);チャット用はテンプレートで system/user/assistant を所定形式に整形。

  • Llama 3.1/Phi‑3/Qwen2/StarCoder2 で分割規則やBOS・タグが異なるため、モデルと同一IDのトークナイザー+対応チャットテンプレートが必須(コードは StarCoder2 が効率的)。

  • 実務TIP:Colab のCUDAエラーは再接続で復旧、HFログインとモデル承認を実施;apply_chat_template(..., tokenize=False)でプロンプトを可視化・デバッグし、特別トークンを確認—次回はTransformers低レベルAPIで生成比較へ。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: Pipelines (第3/8週・2/5日目)

  • パイプライン概要(推論専用の高レベルAPI/2行パターン):テキスト7種(感情・NER・QA・要約・翻訳・ゼロショット・生成)に加え、画像(Stable Diffusion)・音声(SpeechT5 TTS)をGPUで簡単実行。

  • Colab実務Tips:軽微なpip競合は無視、CUDA/bitsandbytes誤報は「切断→削除→再接続」で解決、右上でT4確認+device="cuda"、HFトークンでログイン;本番はモデル名とrevisionを固定。

  • 使い分け指針:標準タスクはPipelines、微調整・特殊トークン・チャットテンプレート等は低レベルAPIへ;付録のチートシートで着手→調整→深掘りの階段を踏み、自己確認で理解を定着。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: Open‑Source GenAI with Hugging Face (第3/8週・1/5日目)

  • Hugging Face の全体像(Models/Datasets/Spaces)と主要ライブラリ(hub/datasets/transformers、先取りで PEFT・TRL・Accelerate)を把握し、モデルカードの読み方と Hub 活用法を学ぶ。

  • Google Colab の GPU ランタイム選択(T4/A100)と Secrets 運用(HF_TOKEN)、揮発ストレージの前提や低コスト運用のコツを整理。

  • 画像生成(FLUX=A100 例/SD‑Turbo・SD v1‑5=T4 例)と TTS(SpeechT5+話者埋め込み)を実践し、Gated・VRAM/OOM・pip 警告の対処と次回 pipelines 予告まで確認。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

LLM Engineering: Master AI, Large Language Models & Agents: 画像と音声を統合したマルチモーダルAIアシスタント(エージェント、ツール、Gradio) (第2/8週・5/5日目)

  • エージェント(自律・目的志向・タスク特化)の概念を導入し、航空会社アシスタントに価格取得ツールを統合、短文・正確回答の方針でGradio土台を構築。

  • DALL·E 3のArtistで都市画像生成(約$0.04/枚)とTalkerでTTSを追加し、tool_calls→ツール応答→画像生成→最終応答→音声出力の順でchat内をオーケストレーション、カスタムUIでテキスト+画像表示。

  • スキーマ厳格化・例外処理・キャッシュ・FFmpeg/Windows対策など実務の勘所を押さえ、拡張課題(予約ツール・翻訳エージェント・音声認識)で完成度を高める;Week 2完了(25%)→ 次週はHugging FaceとOSS推論へ。

LLM Engineering: Master AI, Large Language Models & AgentsBecome an LLM Engineer in 8 weeks: Build and deploy 8 LLM appwww.udemy.com

続きをみる

化学の研究者としてアカデミックな分野でキャリアをスタートさせましたが、プログラミングへの好奇心から流体解析とFortranプログラミングの世界を探求することになりました。5年前に日本に帰国した後、ウェブ開発の世界に飛び込み、HTML、CSS、JavaScriptの基礎を独学で学びました。現在はデータサイエンティストとして、その知識と経験を生かし、この分野における革新と成長を推進しています。自由時間には、体操で体を動かし、Oculus Quest 2でバーチャルリアリティに没頭しています。学問とプログラミングの両方の強力なバックグラウンドを持つHafniumは、どんなチームにもユニークな視点とスキルセットをもたらします。

今後のプロジェクトとウェブ開発およびデータサイエンスの分野への貢献にご期待ください。

ポートフォリオへようこそ!

こんにちは!AIユーザー兼プログラマーのHafniumです。このウェブサイトでご覧いただけるように、私はAIとプログラミングの分野に情熱を注いでおり、これらの分野で活躍するために必要なスキルと知識を得るために努力してきました。ここでは、私が携わったプロジェクトなどの作品例や、履歴書、連絡先などをご紹介しています。このウェブサイトが、私のスキルと経験についてご理解いただけることを願っています。常に学び、成長する機会を求めていますので、ご質問やプロジェクトでのコラボレーションをご希望の方は、ご遠慮なくご連絡ください。私のポートフォリオを見て楽しんでいただければと思います。

最新記事