Shared conversation
GPT-4 ·
https://twitter.com/WizardLM_AI/status/1696527036804989171
WizardLMの主張をまとめてください。
GPT-4
Poe
WizardLMのチームは以下の主張をしています:
- ユーザーがPhindがV2モデルを更新したことを発見しましたが、その設定モデルパスは"WizardCoder"のものでした。
- ユーザーがWizardCoderの参照や宣言なしにPhindがそれを使用したのかと尋ねたところ、PhindはV2のリポジトリ全体を削除し、新しいものを作成しました。そして、パスが"/fsx/Phind-CodeLlama-34B-v1"に変更されました。
- WizardLMは、Phindが彼らの手法やモデルを使用して自分たちのLLM(Language Learning Model)を改善したことについて、当初は喜んでいました。彼らは、これが両社のモデルと手法のウィンウィンの状況を祝うツイートを行いました。
- しかし、Phindからの反応は、公に彼らを中傷しようとしているように思え、WizardLMのチームは驚きと失望を感じました。
- そこで、WizardLMは次の疑問を提起しました:
- なぜWizardCoderのスタイルのデータを使用し、その後WizardCoderから何も使用していないと主張するのか?
- なぜV2モデルをWizardCoderのフォルダからトレーニングし、V1モデルはベースコードのllamaからトレーニングするのか?
- なぜ元のV2リポジトリを削除したのか?何を隠そうとしているのか?
- WizardCoderのスタイルのデータを使用し、モデルのトレーニングを続け、さらにウィザード名のモデルフォルダを使用することは、「WizardCoderから何も使用していない」と等しいのか?
- これらの問いに対する回答や説明がなく、Phindの振る舞いに怒りを感じたWizardLMチームは、これ以上怒りを抑えることを決定しました。
- 最終的に、ユーザーの言葉を借りて、Phindが無実を証明するどころか、むしろ自身を有罪にしていると結論づけています。
彼らは、自身の手法とモデルがPhindによって使用されたにも関わらず、Phindがこれを認めず、WizardCoderから何も使用していないと主張したことを強く非難しています。WizardLMチームは、自分たちのハードワークに対する基本的な尊重を求めています。
This conversation may have been edited by the sharer.