Ordinateurs

Projet haut de gamme Deep Space Nine (DS9UP) : objectifs techniques et FAQ – High-teK.ca

Mise à jour (17/07/2021): L’article ci-dessous a été remplacé par les résultats discutés dans « Bien au-delà des étoiles » et le tutoriel qui l’accompagne, « Comment monter en gamme Star Trek : Deep Space Nine.« Ces articles sont les derniers que j’ai publiés et la meilleure vitrine de mes derniers travaux.

Ma compréhension de Espace Profond Neuf a considérablement évolué au cours des 17 mois que j’ai travaillé sur ce projet. Certains des premiers articles de cette série contiennent des erreurs factuelles qui sont corrigées dans des articles ultérieurs. J’ai laissé ces articles tels qu’ils ont été publiés à l’origine, mais les informations contenues dans les histoires ultérieures sont plus précises à certains égards. Mes premières spéculations sur les raisons pour lesquelles la qualité de DS9 varie tellement d’une saison à l’autre étaient inexactes, par exemple.

Si vous voulez lire les histoires les plus récentes, commencez au bas de la liste ci-dessous.

Histoire originale ci-dessous:

J’ai eu besoin d’écrire une sorte de «déclaration de mission» et de FAQ pour ce projet, et cela semble être le meilleur moment possible.

L’objectif du projet Deep Space Nine Upscale (DS9UP) est de créer une version de Star Trek : Deep Space Nine à regarder à l’ère moderne des téléviseurs et moniteurs 4K et HD. Topaz Video Enhance AI a été un élément essentiel de ces efforts à ce jour, mais j’ai passé le mois dernier à tester AviSynth, StaxRip, Handbrake et au moins une douzaine d’autres applications dans le processus de création de cet encodage.

Parce que la qualité d’image est intrinsèquement suggestive, je ne vais pas prétendre que je peux en quelque sorte créer la « meilleure » version de Espace Profond Neuf, mais j’ai l’intention de tracer plusieurs chemins et ajustements de paramètres qui conduisent à des résultats différents. Je suis revenu en arrière et me suis spécifiquement concentré sur l’encodage des DVD pour deux raisons :

1). Nous avons besoin de chaque morceau de données pour la mise à l’échelle (nos résultats confirment l’importance de cela à plusieurs endroits)

2). Je suis en train de créer une voie légale permettant aux particuliers de mettre à l’échelle une émission de télévision qu’ils possèdent déjà. Je ne créerai ni ne distribuerai aucun torrent basé sur mon propre travail. je sera publiera un didacticiel complet sur la façon de créer ce que j’ai créé, une fois que nous aurons atteint ce point.

À ce jour, j’ai utilisé simultanément deux stations de travail pour les tests DS9UP : un AMD Threadripper 3990X et un Intel Core i9-10980XE, tous deux équipés de 64 Go de RAM et d’un RTX 2080. J’ai parfois exploité une puissance de traitement supplémentaire sous la forme de huit -systèmes Intel et AMD à cœur. Les deux systèmes ont été excellents, mais le 3990X est particulièrement doué pour exécuter de nombreux encodages en parallèle.

Le préréglage actuel de l’encodeur avec lequel je travaille et dont j’ai parlé plus tôt cette semaine porte le nom de code « Rubicon ». après le runabout.

Mise à l'échelle AIS incorrecte

Un exemple intéressant de l’importance de la qualité de la source. Alors que l’algorithme haut de gamme ‘Artemis’ AI fonctionne mal dans les deux clips, il fonctionne beaucoup moins mal lorsqu’on lui donne plus de matériel source avec lequel travailler. MKV amélioré à gauche, Rubicon à droite.

J’ai beaucoup plus de puissance de calcul disponible que ce qui est typique pour un projet comme celui-ci, et je l’utilise en conséquence.

Psssssst :  Skylum double l'amélioration de l'image AI dans l'éditeur de photos Luminar 4 - High-teK.ca

Avant d’aller plus loin, voici quelques images surprises de la saison 7 que j’ai créées.

Objectifs et principes

Le processus final de mise à l’échelle et d’application du filtre doit être aussi simple que possible, pour augmenter la probabilité que les gens puissent le suivre. Aucune modification de scène individuelle à moins qu’elle ne soit absolument inévitable.

La mise à l’échelle devrait nécessiter le moins de réencodage possible, afin de réduire la dégradation de la source.

Lorsque l’encodage ne peut être évité, ré-encodez avec un maximum de détails. Le stockage est bon marché et Topaz Video Enhance AI n’offre aucun contrôle sur les paramètres de sortie finaux. Pécher par excès de prudence.

Créez un minimum de deux flux de travail équilibrés entre une qualité maximale et des exigences de temps de traitement raisonnables.

Un autre exemple de la difficulté du préréglage Artemis-LQ. Il a du mal avec Rubicon et les MKV améliorés, mais il a plus de mal avec le MKV.

Le haut de gamme devrait s’appuyer sur la plus grande quantité de logiciels libres d’utilisation possible. L’utilisation de Topaz n’est pas gratuite, mais elle inclut un essai gratuit de 30 jours.

La vidéo non mise à l’échelle doit encore améliorer la qualité de l’image source sous-jacente avant l’application de la mise à l’échelle.

En cas de doute, encodez-le et comparez-le.

Restituez tous les résultats avec une qualité presque maximale. Lorsqu’il y a des questions sur les paramètres de qualité maximale, encodez simultanément toutes les options probables. Lorsque la combinatoire rend cela impossible, choisissez des cibles probables en vous basant sur une lecture attentive des différents paramètres de filtre.

Soyez prêt à rire de certains des encodages de qualité ridiculement mauvaise que vous créerez occasionnellement, surtout s’il faut 1 à 2 jours pour les créer.

Résolvez les temps de rendu lents en tirant parti d’un plus grand parallélisme. Si vous terminez 15 à 20 encodages par jour, peu importe s’il faut 12 à 36 heures pour les terminer.

Encodez l’épisode entier en une seule fois, pour une comparaison plus facile de n’importe quelle zone.

Rubicon n’est pas un exemple parfait de ses propres objectifs et principes. Comme beaucoup d’efforts de la première saison, il doit encore être affiné. Actuellement, il s’appuie sur plusieurs logiciels payants et la source est codée plus que je ne l’aime. J’ai également été obligé d’utiliser Handbrake comme extracteur initial plutôt que MakeMKV en raison de problèmes persistants de multiplexage audio/vidéo. Le frein à main n’a pas un tel problème et je n’ai remarqué aucune perte de qualité significative d’une déchirure du frein à main sur « Très lent » avec un RF de 2.

Il y a quelques dépendances désagréables à gérer entre les applications. AviSynth n’aime pas toujours manipuler une vidéo après qu’elle soit passée par DaVinci Resolve Studio et Topaz. DaVinci n’ingère pas les fichiers MKV et ne prend pas du tout en charge MPEG-2.

Créer un Rubicon

Actuellement, Rubicon utilise Handbrake pour le rip initial, suivi de StaxRip 2.0.8.0 en tant qu’interface graphique frontale AviSynth. Après traitement via AviSynth, j’upscale l’application en Topaz VEAI. Cela crée une étape intermédiaire que j’appelle personnellement 5Sharp, principalement parce que « Celui-ci encode que j’aime » était verbeux.

Aussi étrange que cela puisse paraître, je suis très satisfait du résultat de ce nuage. MKV amélioré à gauche, Rubicon à droite.

5Sharp est plutôt agréable, IMO, mais il a du mal à résoudre les problèmes de saccades causés par l’astuce de DS9 consistant à basculer entre 23,976 ips et 29,97 ips. J’ai trouvé deux méthodes pour résoudre ce problème – celle actuellement déployée dans Rubicon utilise DaVinci Resolve Studio, tandis qu’une autre option que j’envisage repose uniquement sur AviSynth.

Psssssst :  La prochaine mise à jour de Windows 11 ajoutera une évaluation écologique - High-teK.ca

La raison pour laquelle j’ai été un peu vague à propos de mes flux de travail n’est pas que j’essaie d’être timide. C’est parce qu’il est pratiquement impossible de tous les décrire sans passer pour un fou. Au cours de la semaine dernière, j’ai expérimenté les éléments suivants :

Encodage à partir de fichiers VOB créés par DVDDecrypter
Encodage à partir de fichiers MKV créés par Handbrake
Encodage à partir de fichiers MP4 créés par Handbrake
Encodage à partir de fichiers MKV créés par MakeMKV

J’ai encodé les fichiers VOB à 23,976 et 29,97 ips pour voir les différences, expérimenté différentes manières d’extraire les codes temporels MKV dans l’espoir de résoudre mon problème de synchronisation A/V lors de l’ingestion via MakeMKV (pas de chance), tenté d’utiliser VapourSynth et StaxRip pour invoquer le script VFRtoCFR (pas de chance et je ne parle pas Python), et expérimenté plusieurs méthodes d’ajustement des fréquences d’images dans plusieurs applications. Dans le montage vidéo, faire A avant B produit souvent des résultats différents de B avant A, j’ai donc également expérimenté l’inversion de l’ordre de mes propres tests.

J’ai exécuté diverses méthodes d’ajustement des fréquences d’images sur tout des sources ci-dessus, pour mesurer l’impact et évaluer comment il affecte différemment les différentes sources. Je ne suis pas « réglé » sur l’utilisation de Handbrake pour l’extraction initiale de manière significative, à l’exception que commencer avec Handbrake me permet d’aligner l’audio et la vidéo sans me verrouiller en 23,976 ips ou 29,97 ips comme le fait actuellement l’extraction des fichiers VOB.

Existe-t-il des solutions à ces problèmes ? je suis certain il existe des solutions à ces problèmes. Ce que je ne veux pas faire, c’est laisser des histoires jonchées de questions de flux de travail à moitié expliquées qui représentent des branches de recherche abandonnées.

Maintenant que j’ai terminé mon dernier rapport massif, je prévois de me connecter avec certains des autres travaux de base en cours sur ce projet.

FAQ

Pourquoi utilisez-vous Handbrake au lieu de MakeMKV ?

J’aimerais utiliser MakeMKV. En fait, j’ai rendu la source basée sur MakeMKV des centaines de fois. Il y a deux problèmes avec MakeMKV que je n’ai pas encore résolus.

1). Audio/vidéo mal aligné au début d’un flux.
2). Comment Espace Profond NeufLa fréquence d’images variable de est gérée par de nombreuses applications.

StaxRip, par exemple, tentera d’extraire un flux MakeMKV en une fréquence d’images constante hybride (CFR) de 24,66 ips, ayant apparemment fait la moyenne de la fréquence d’images de contenu de 29,97 ips avec la fréquence d’images de contenu de 23,976 ips. Il est possible d’extraire directement les VOB – et cela résout le problème de synchronisation audio – mais cela force également le spectacle à adopter une fréquence d’images ou l’autre.

Psssssst :  Le démontage de Mac Studio montre une puce massive et des indices sur l'évolutivité future

De plus, DaVinci Resolve de Blackmagic ne prend pas en charge les fichiers MPEG-2 ou MKV, ce qui est plutôt frustrant.

Les recommandations d’outils sont les bienvenues.

Combien de temps faut-il pour encoder un épisode entier ?

Réponse honnête : je ne suis pas sûr. Il faut entre 8,5 et 11 heures pour mettre à l’échelle un fichier source DVD par 4x. Ceci est parfois appelé « 4K », mais la résolution finale sur Rubicon est de 2560 × 1920. C’est à peu près une image 5MP. La raison pour laquelle je ne sais pas combien de temps cela prend réellement est que j’exécute généralement entre 4 et 10 encodages source simultanément avec une mise à l’échelle en arrière-plan.

À l’heure actuelle, je dirais qu’il faut entre 13 et 20 heures pour améliorer un épisode, du début à la fin. 8 à 11 heures de cela sont hors de mon contrôle. Topaz VEAI prend le temps qu’il faut.

Savez-vous réellement ce que vous faites ?

Je suis encore débutant dans ce genre de choses. Rétrospectivement, il y a des spectacles plus faciles à se faire les dents que Deep Space Nine. Ma stratégie pour vaincre ce problème a été le courage, le bon sens et des quantités écrasantes de puissance de traitement.

Êtes-vous conscient que vous le faites mal ?

Je suis délicieusement conscient que je le fais mal. J’ai essayé d’apprendre à améliorer et à remastériser efficacement la vidéo à partir de zéro, avec l’aide d’amis en ligne et réels. Je prends la vidéo comme un canard pour passer l’aspirateur. Si vous pensez savoir quelque chose qui pourrait vous aider, il y a de fortes chances que vous le sachiez.

Je ne m’attaque pas à ce projet parce que je pense que je suis en quelque sorte immunisé contre l’effet Dunning-Kruger. Je le prends parce que DS9 a 27 ans et personne ne l’a encore fait. Paramount a clairement indiqué qu’ils ne le feraient pas. Nous avons commencé à perdre les acteurs qui ont joué dans la série.

Pour la première fois de toute ma carrière, les outils pour résoudre des problèmes comme celui-ci sont devenus disponibles pour les gens ordinaires. Moi et d’autres groupes de personnes en profitons.

Vous ne le ferez jamais aussi bien que Paramount pourrait:

Celui-ci n’est vraiment pas une question, mais je l’entends assez régulièrement pour qu’il vaille la peine d’être abordé. Ce n’est pas nouveau pour moi que Paramount soit capable de créer une version remasterisée de Espace Profond Neuf ça ferait sauter le mien hors de l’eau. Voici une photo qu’ils ont créée pour le documentaire « What We Left Behind » l’année dernière :

Et, à titre de comparaison, voici ma propre version de ce clip, rendue dans Rubicon – les meilleures séquences que j’ai assemblées à ce jour :

Je sais lequel vous préférez probablement. Je sais lequel je préfère. Mais puisque Paramount ne fait pas le travail, je dois travailler avec ce que j’ai.

Le but du DS9UP n’est pas de créer une meilleure version de DS9 que Paramount pourrait produire – c’est de créer la meilleure version de Espace Profond Neuf qu’il est possible de construire (en tenant compte des goûts individuels).

Maintenant lis:

Bouton retour en haut de la page