Dream Machine サイトリニューアル

引用

2024.12.01

Dream Machineが…サイトをリニューアルしていました…。

なんだか…良さげな?感じです。

これも…一先ず…メモ!まで…

繁忙期が一段落したら…時間をつくって…

オフィシャルサイトの「生成AIラボ」でいじってみます!

https://lumalabs.ai/dream-machine
Midjourneyにて生成

Dream Machineのサイトリニューアルについて

Luma AIの「Dream Machine」は、最近大規模なリニューアルを実施しました。このリニューアルは、ユーザーインターフェースの改善や新機能の追加を含んでおり、より使いやすく、直感的な操作が可能になっています。

主な変更点:

  • 静止画生成機能の追加: 新しい「Luma Photon」モデルを導入し、テキストからだけでなく、画像を参照して一貫したキャラクター生成が可能になりました。これにより、複数の参照画像を使用して高精度な画像を生成することができます。
  • 動画生成のバリエーション: ユーザーは生成した画像からさらにバリエーション動画を作成できるようになり、生成された動画の長さを延ばすことも可能です。これにより、より多様なコンテンツを簡単に作成できます。
  • ユーザーインターフェースの改善: 新しいインターフェースは、スクロールするだけで任意の画像を起点に静止画や動画のバリエーションを試すことができ、ストレスのない操作が実現されています。
  • プロンプト提案機能: 「Brainstorm」機能が追加され、現在表示されている画像に基づいて適切なプロンプトのパターンを提案してくれるようになりました。これにより、ユーザーはより創造的なアイデアを得やすくなります。

このリニューアルにより、Dream Machineはより多機能で使いやすい動画生成ツールとして進化しました。特に、静止画から動画を生成する機能や、ユーザーインターフェースの改善は、クリエイターにとって大きな利点となるでしょう。

by Felo

Flux Pro 1.1にて生成

人物画像生成特化型AI「FLUX Portrait Trainer」

引用

2024.12.01

人物画像生成に特化したAI「FLUX Portrait Trainer」がリリースされた…。

↓オフィシャルブログ↓

https://blog.fal.ai/introducing-the-flux-portrait-trainer

↓ここで試せるみたいですね↓

https://fal.ai/models/fal-ai/flux-lora-portrait-trainer?ref=blog.fal.ai

一先ず…メモ!まで…

繁忙期が一段落したら…時間をつくって…

オフィシャルサイトの「生成AIラボ」でいじってみます!

Flux Pro 1.1にて生成

FLUX Portrait Trainer について

FLUX Portrait Trainerは、特に高品質なポートレート生成に特化した画像生成AIツールです。最近のアップデートにより、以下のような特徴が強化されています。

  • 高精細なディテール: FLUX Portrait Trainerは、細かい髪の毛や目のハイライト、リアルな肌質感など、画像の細部をより鮮明に再現します。これにより、生成されたポートレートがより生き生きとした印象を与えます。
  • 複雑なプロンプトへの対応: このトレーナーは、より複雑なプロンプトに対しても高い忠実度で応答できる能力を持っています。これにより、創造的なシーンや照明条件の変更にも柔軟に対応できるようになっています。
  • 小さな顔の表現力向上: 小さな顔が生成される際にも、その特徴を保持するためのマルチ解像度トレーニングオプションが追加されました。これにより、小さな顔でもアイデンティティを維持しやすくなっています。
  • 高い再現性: FLUX Portrait Trainerは、劇的なシーンや照明の変化があっても、高い再現性を維持します。これにより、ユーザーは多様なシーンで一貫した結果を得ることができま。
  • 汎用トレーナーとの補完関係: FLUX Portrait Trainerは、従来の汎用トレーナーを補完するものであり、特定のアプリケーションによっては別のトレーナーがより効果的である場合もあります。

このように、FLUX Portrait Trainerはポートレート生成において非常に強力なツールであり、特に商業利用や個人利用においてその価値が高まっています。今後もさらなる技術革新が期待されます。

by Genspark

Flux Pro 1.1にて生成

「FLUX1.1 Pro」で使える…「FLUX.1 Tools」登場

引用

2024.11.23

ここ最近では…一番活用している画像生成AI「FLUX1.1 Pro」で使える…

AIモデルシリーズ「FLUX.1 Tools」が発表された…。

https://blackforestlabs.ai/flux-1-tools/ を見ると…

かなり色々なことができるようになったみたいですね!

私はいつも…https://replicate.com/black-forest-labs から使っています…。

FLUX.1 Tools」発表

2024年11月21日、Black Forest Labsは新しいAIモデルシリーズ「FLUX.1 Tools」を発表しました。このツールは、テキストから画像への変換モデルFLUX.1に制御性と操作性を追加し、実際の画像と生成された画像の変更や再作成を可能にします。

FLUX.1 Toolsの主な機能

  • FLUX.1 Fill: 最先端のインペインティングおよびアウトペインティング機能を提供し、テキスト記述とバイナリマスクを使用して画像を編集・拡張できます。
  • FLUX.1 Depth: 入力画像から抽出された深度マップに基づいて構造的ガイダンスを提供します。
  • FLUX.1 Canny: 入力画像から抽出されたキャニーエッジを使用して構造的ガイダンスを行います。
  • FLUX.1 Redux: 入力画像とテキストプロンプトを組み合わせて新しい画像を生成するアダプターです。

これらの機能は、BFL APIを通じて利用可能であり、fal.aiやReplicateなどのパートナーサービスでも利用できます。特に、FLUX.1 Fillは他の競合手法よりも優れた性能を示しており、現時点で最先端のインペインティングモデルとされています。

リリースの影響

このリリースは、研究コミュニティに対して最先端のオープンウェイトモデルを提供しつつ、APIを通じてクラス最高の機能も提供することを目的としています。特に商用利用が可能な点が注目されており、さまざまなアプリケーションでの活用が期待されています。

by Genspark

Flux 1.1 proにて生成

1枚の画像から空間を生成!?「DimensionX」

引用

2024.11.17

1枚の画像から…フォトリアルな3Dおよび4Dシーン=空間・シーンを生成する…「DimensionX」

YouTube↓を見る限り…凄い!

GitHub… https://github.com/wenqsun/DimensionX

↓HuggingFaceのSpacesで…デモも公開されている… https://huggingface.co/spaces/fffiloni/DimensionX

Midjourneyにて生成

DimensionXについて

主な特徴:

  • 単一画像からの生成: DimensionXは、1枚の画像を入力として受け取り、そこから複雑な3Dおよび4Dシーンを生成します。このプロセスは、従来の3Dモデリングに比べて非常に簡便です。
  • 制御可能な生成プロセス: このフレームワークは、ST-Directorという技術を使用しており、空間的および時間的要素を分離することで、シーンの操作性を向上させています。これにより、ユーザーは生成されるシーンの視点や動きを細かく制御できます。
  • 高いリアリズムと精度: DimensionXは、リアルな3Dおよび4Dシーンを生成する能力において、従来の手法を上回る性能を発揮します。特に、動的な変化を持つシーンの生成において、その逼真さと精度が評価されています。

応用例:

  • 映像制作: 映画やゲームの制作において、迅速に高品質な3Dシーンを生成するために利用される可能性があります。
  • 教育やトレーニング: インタラクティブな学習環境を提供するために、リアルなシミュレーションを作成することができます。

DimensionXは、AI技術の進化により、クリエイティブなプロセスを大幅に効率化し、より多くの人々が高度なビジュアルコンテンツを生成できるようにすることを目指しています。

by Felo


DimensionXについて

DimensionXは、単一の画像から写実的で制御可能な3次元および4次元シーンを生成する新しいフレームワークです。この技術は、3Dシーンの空間構造と4Dシーンの時間的変化をビデオフレームの連続によって表現することができます。

近年のビデオ拡散モデルは鮮やかな映像生成で大きな成果を上げていますが、生成時の空間的・時間的な制御が限られているため、3D/4Dシーンを直接復元することには課題がありました。これに対処するために、研究チームは「ST-Director」を提案しました。この手法では、次元ごとに異なるデータからLoRAを学習し、ビデオ拡散における空間的・時間的要素を切り離すことが可能です。

この制御可能なビデオ拡散手法により、空間構造と時間的な動きを正確に操作できるようになり、フレームから3Dおよび4D表現を再構築できます。また、生成されたビデオと実世界のシーンの違いを埋めるために、3D生成用の軌道認識と4D生成用のアイデンティティ保持ノイズ除去戦略も導入されています。実世界および合成データセットでの実験により、DimensionXは従来の手法を上回る結果を達成しています。

この技術は、特に生成AI技術や研究において注目されており、科学的発見やイノベーションへの影響も期待されています。今後はさらに多くの応用が考えられています。

by Genspark


AI生成された画像からプロンプトを抽出する…

引用

2024.11.15

AI生成画像からプロンプトを抽出したい…というニーズが結構あるんですね…。

似た絵を生成したい!?って事なのかなぁ…。

まぁ…確かに…思うように画像生成できない時は参考にはなるのかな…。

Stable Diffusionにも…そんな拡張機能があるんですね…。

知らなかった…。

知らない人が生成した画像から勝手に?プロンプトを抽出することに抵抗があるのは…

私だけなのかな?

Flux Pro 1.1にて生成

AI生成された画像からプロンプトを抽出する方法

AI生成された画像からプロンプトを抽出する方法には、いくつかの効果的な手法とツールがあります。これらの方法は、特にStable Diffusionなどの画像生成AIを使用する際に役立ちます。

  1. Interrogate CLIP
    • この機能は、画像から関連するプロンプトを文章形式で抽出することができます。CLIP(Contrastive Language-Image Pretraining)モデルを基にしており、画像の内容を理解し、それに関連する言葉を生成します。この方法は多様な画像タイプに対応しており、ユーザーが生成したい画像の構図や状況を把握しやすくします。
  2. Interrogate DeepBooru
    • DeepBooruは特にアニメやイラスト系の画像に特化した機能です。この技術は、カンマ区切りのタグ形式でプロンプトを抽出します。アニメ系生成モデルでは、このタグ形式がより精度の高い結果をもたらすことが知られています。
  3. Tagger
    • TaggerはStable Diffusionの拡張機能であり、画像から詳細なプロンプトを自動的に抽出します。このツールは、特定のキャラクターやシーンを再現したいときに役立ちます。Taggerはカンマ区切りの単語としてポジティブなプロンプトを抽出し、多様な画像タイプに対応しています。

これらの技術は、ユーザーが過去に生成した画像のプロンプトを再利用したり、新しいアイデアを得たりする際に非常に便利です。例えば、好みのスタイルやテーマを持つ画像からプロンプトを抽出し、それを基に新たな画像生成を行うことができます。また、これらの技術はオープンソースとして提供されているため、多くのユーザーが簡単にアクセスし、自分自身のニーズに合わせて利用できる点も大きな利点です。

by Genspark