AMD製のハードウェア向けローカル動作型生成AIアート作成ツール「Amuse 3.0」

引用

2025.05.05

AMD製のハードウェア向けに最適化された…
ローカル動作型生成AIアート作成ツール「Amuse 3.0
クラウドを介さずにPC単体で高精度な画像や動画を生成できる…。

流れは…こっちなのかな…。
私個人としては…安価なPCでも動作する環境を整えて欲しいな…と。
「Radeon RX 9000シリーズ」や「Ryzen AI 300シリーズ」を搭載したPCは高額だし…

https://www.amuse-ai.com

Fluxにて生成

主な機能と特徴

  • AMD最適化モデル: Amuse 3.0は、Stability AIと共同で開発されたAMD最適化モデルを使用しており、これによりAMD Radeon GPU上での推論速度が最大4.3倍向上します。
  • 新しい生成モデル: 新たに100以上の画像モデルとファインチューニングが追加され、Stable Diffusion 3.5やFLUX.1などの最新の生成AIモデルを利用可能です。
  • 高品質なフィルター: 高品質のフォトAIフィルターが搭載されており、ユーザーはローカルでプライバシーを保ちながら画像処理を行うことができます。
  • 動画生成機能: ドラフト品質の動画生成や動画のスタイル変更機能も含まれており、最大6秒の低解像度動画を生成することが可能です。

動作環境

Amuse 3.0は、AMD Ryzen AIプロセッサやRadeonグラフィックスカードを搭載したPCで動作します。特に、AMD XDNA NPUを搭載したシステムでは、4MPの印刷品質画像を数分で生成できる機能も備えています。

まとめ

Amuse 3.0は、生成AI技術を利用したアート作成を手軽に行えるツールであり、特にAMDのハードウェアを活用することで、ユーザーは高品質な画像や動画を迅速に生成することができます。これにより、クリエイティブな作業がより効率的に行えるようになります。

by Felo

Midjourneyにて生成

3Dモデルを分割できる3D生成AI「HoloPart」

引用

2025.05.02

3D使いの私には…有効なツールになってくる?

これって…ニーズがあるのかな?
確かに…既存オブジェクトのこの部分だけ使いたい!って時はあるかぁ…

3Dモデルをパーツごとに分解して生成する能力に特化している…
アメリカ発オープンソース3D生成AIモデル「HoloPart

プロジェクトページ:https://vast-ai-research.github.io/HoloPart/
をみると…↓↓↓こんなことができるらしい…。

GitHub:https://github.com/VAST-AI-Research/HoloPart

DEMO…ここでいじれる?みたい…↓↓↓
HuggingFace:https://huggingface.co/spaces/VAST-AI/HoloPart

Fluxにて生成

HoloPartの特徴

  • アモーダルセグメンテーション: HoloPartは、見えない部分を含む3Dモデルの分割を行う「アモーダルセグメンテーション」を実現しています。これにより、初期の不完全なパーツセグメントを生成し、その後にそれらを完全な3Dパーツに補完するという2段階のアプローチを採用しています。
  • 編集とアニメーションの容易さ: HoloPartを使用することで、特定の部品を簡単に選択し、移動やサイズ変更が可能になります。また、部品ごとに異なる素材やテクスチャを適用できるため、リギングやアニメーションも容易になります。
  • オープンソースの利点: HoloPartはオープンソースとして公開されており、誰でも利用できるため、3Dコンテンツの作成や理解において新たな可能性を提供します。プロジェクトページでは、デモも用意されており、実際に試すことができます。

この技術は、特に3Dモデリングやアニメーション制作に携わるクリエイターにとって、非常に重要なツールとなるでしょう。HoloPartの導入により、従来の3Dパーツセグメンテーション手法の限界を克服し、より高度な形状編集やアニメーションが可能になります。

by Felo

Fluxにて生成

スケッチから高品質3Dモデル生成「Hunyuan 3D」

引用

2025.05.01

Tencentが開発した「Hunyuan 3D」…
スケッチやテキストから高品質な3Dモデルを生成出来る…
オープンソースで提供=ローカルで動作可能…
スケッチアップロード→オブジェクト情報プロンプト入力→3Dモデル生成…

↓↓↓の動画をみると…
便利っちゃ…便利ですね…。
まぁ…どこまで制御できるか?次第なのかな…。

https://3d-models.hunyuan.tencent.com

ここから試せるみたい→https://3d.hunyuan.tencent.com/login?redirect_url=https://3d.hunyuan.tencent.com/

GitHub:https://github.com/Tencent/Hunyuan3D-2
HuggingFace:https://huggingface.co/tencent/Hunyuan3D-2

Midjourneyにて生成

Hunyuan 3Dの概要

生成プロセス

  1. スケッチのアップロード: ユーザーは「Sketch Up 3D」ページにアクセスし、生成したいオブジェクトのスケッチ画像をアップロードします。
  2. テキストプロンプトの入力: スケッチに基づいて、オブジェクトの説明や色などの情報を英語で入力します。
  3. モデルの生成: 「Generate now」ボタンを押すことで、AIがスケッチとテキストプロンプトを基に3Dモデルを生成します。このプロセスは数秒で完了し、ユーザーは毎日最大10回の生成が可能です。

技術的な特徴

  • 高品質なテクスチャ: Hunyuan 3Dは、形状だけでなく、テクスチャも生成する能力を持っています。これにより、リアルな外観の3Dモデルを作成することができます。
  • オープンソース: Hunyuan 3Dはオープンソースであり、コミュニティによる貢献が可能です。これにより、ユーザーは自由にモデルをカスタマイズしたり、改善したりすることができます。
  • 必要なハードウェア: テクスチャ付きモデルを生成するためには、一定のハードウェア要件があり、特にVRAMが8GB以上のNVIDIA GPUが推奨されています。

利用シーン

Hunyuan 3Dは、ゲーム開発や映画制作、アートプロジェクトなど、さまざまなクリエイティブな分野での利用が期待されています。特に、迅速に高品質な3Dモデルを生成できる点が、クリエイターにとって大きな利点となります。

このように、Hunyuan 3Dはスケッチからの3Dモデル生成を簡単に行える強力なツールであり、クリエイティブな作業を大幅に効率化することができます。

by Felo

Midjourneyにて生成

2D三面図を3Dデータ自動変換「3D.Core for CAD」β版

引用

2025.04.30

2Dの三面図を…自動的に3Dデータに変換できる!?「3D.Core for CAD」β版

私の様な2D〜3Dのデザイナーには…
夢のような!?アプリのリリース記事が目に止まりました!!!

DWG形式2D三面図→STL形式データ出力…が出来るみたい…

リリース:https://bestat-data.com/news/hAeqLWbZ

Midjourneyにて生成

概要

「3D.Core for CAD」は、bestat株式会社が提供する新しいサービスで、2Dの三面図を自動的に3Dデータに変換する機能を持っています。このサービスは2025年4月23日にβ版としてリリースされ、主に製造業における設計資産のデジタル化を支援することを目的としています。

主な機能と利点

  • 自動変換: 2DのDWG形式の図面を入力として受け取り、3D CADソフトで使用可能なSTL形式のデータに変換します。これにより、従来の手作業による変換に比べて、工数を大幅に削減し、効率的なデータ化が可能になります。
  • 高精度: 新たに開発されたアルゴリズムにより、高精度での3Dデータ生成が実現されており、特に複雑な図面や省略された情報の補完にも対応する予定です。
  • コスト削減: 自動化により、低コストでの3Dデータ化が可能となり、特に中小企業にとっては初期投資の負担を軽減する効果が期待されています。

背景と必要性

近年、自動車や機械製造業では3D設計の標準化が進んでいますが、過去の設計図面は多くが紙やPDFで管理されており、これらを3D化するには専門的な知識を持つ技術者が必要です。このため、設計資産のデジタル化は急務とされています。特に、ベテラン技術者の退職や図面の紛失リスクが高まる中で、3D.Core for CADは重要な解決策となるでしょう。

今後の展望

bestatは、今後さらに複雑な2D図面への対応や、図面作成時に省略されがちな情報の自動補完機能の強化を計画しています。これにより、より広範な業務領域での3Dデータ活用が期待されています。

Midjourneyにて生成

by Felo


1枚の静止画と音声データから動画を生成「FantasyTalking」

引用

2025.04.23

1枚の静止画と音声データを基に…自然な動きの動画を生成することができる…生成AI「FantasyTalking

プロジェクトページ:https://fantasy-amap.github.io/fantasy-talking/ ↓↓↓をみると…

今までのこの類の生成AIと比べてみると…生き生き?としているかも!
この手の生成AIは…明らかに?中国がリードしていますね…。

プロジェクトページには…
以前このBlogで紹介した…「OmniHuman-1」との比較も載っています…。

GitHub:https://github.com/Fantasy-AMAP/fantasy-talking

Midjourneyにて生成

基本機能と特徴

  • 動画生成の仕組み: FantasyTalkingは、静止画から高品質な動画を生成するために、二段階の音声-映像連携戦略を採用しています。第一段階では、音声に合わせた全体的な動きを生成し、顔の表情や体の動きのパターンを学習します。第二段階では、口の動きを精緻化するために「リップトレーシングマスク」を使用します。このアプローチにより、従来のAI技術では難しかった自然な表情と体の動きの同期が実現されています。
  • 多言語対応: FantasyTalkingは多言語に対応しており、これにより国際展開が可能です。スモールビジネスが海外市場に進出する際の強力なツールとなります。

スモールビジネスでの活用方法

  • 動画マーケティング: スモールビジネスは、FantasyTalkingを利用してプロモーション動画や商品紹介動画を簡単に制作できます。これにより、視覚的に魅力的なコンテンツを迅速に作成し、顧客の関心を引くことができます。
  • コスト削減: 従来の動画制作に比べて、時間とコストを大幅に削減できるため、リソースを他の重要な業務に振り向けることが可能です。

このように、FantasyTalkingはスモールビジネスにとって、動画制作の効率化と国際展開の促進を実現するための強力なツールです。

by Felo

Midjourneyにて生成