Bot image for GPT-4

Shared conversation

GPT-4 ·

WizardLMのチームは以下の主張をしています:

  1. ユーザーがPhindがV2モデルを更新したことを発見しましたが、その設定モデルパスは"WizardCoder"のものでした。
  2. ユーザーがWizardCoderの参照や宣言なしにPhindがそれを使用したのかと尋ねたところ、PhindはV2のリポジトリ全体を削除し、新しいものを作成しました。そして、パスが"/fsx/Phind-CodeLlama-34B-v1"に変更されました。
  3. WizardLMは、Phindが彼らの手法やモデルを使用して自分たちのLLM(Language Learning Model)を改善したことについて、当初は喜んでいました。彼らは、これが両社のモデルと手法のウィンウィンの状況を祝うツイートを行いました。
  4. しかし、Phindからの反応は、公に彼らを中傷しようとしているように思え、WizardLMのチームは驚きと失望を感じました。
  5. そこで、WizardLMは次の疑問を提起しました:
    • なぜWizardCoderのスタイルのデータを使用し、その後WizardCoderから何も使用していないと主張するのか?
    • なぜV2モデルをWizardCoderのフォルダからトレーニングし、V1モデルはベースコードのllamaからトレーニングするのか?
    • なぜ元のV2リポジトリを削除したのか?何を隠そうとしているのか?
    • WizardCoderのスタイルのデータを使用し、モデルのトレーニングを続け、さらにウィザード名のモデルフォルダを使用することは、「WizardCoderから何も使用していない」と等しいのか?
  6. これらの問いに対する回答や説明がなく、Phindの振る舞いに怒りを感じたWizardLMチームは、これ以上怒りを抑えることを決定しました。
  7. 最終的に、ユーザーの言葉を借りて、Phindが無実を証明するどころか、むしろ自身を有罪にしていると結論づけています。

彼らは、自身の手法とモデルがPhindによって使用されたにも関わらず、Phindがこれを認めず、WizardCoderから何も使用していないと主張したことを強く非難しています。WizardLMチームは、自分たちのハードワークに対する基本的な尊重を求めています。

This conversation may have been edited by the sharer.

Bot image for GPT-4
Talk to GPT-4 on Poe