Mistral AI hat kürzlich beim Cerebral Valley ein großes Update für das Mistral7B v0.2-Basismodell veröffentlicht. Das Modell unterstützt jetzt den 32K-Kontext, hat das Schiebefenster aufgehoben und den Rope-Theta-Parameter auf 1e6 gesetzt. Bemerkenswerter ist, dass Mistral AI mit Microsoft zusammengearbeitet und 16 Millionen US-Dollar für die Veröffentlichung des groß angelegten Sprachmodells Mistral Large ausgegeben hat, das GPT-4 direkt einem Benchmarking unterzieht und seine starke Wettbewerbsfähigkeit und ehrgeizigen Entwicklungsziele im Bereich groß angelegter Sprachmodelle unter Beweis stellt . Dies deutet darauf hin, dass der Wettbewerb im KI-Bereich in Zukunft härter werden wird.
Mistral AI hat kürzlich das Mistral7B v0.2Base-Modell als Open Source bereitgestellt, das auf der Cerebral Valley-Veranstaltung angekündigt wurde. Nach dem Update unterstützt es den 32K-Kontext, bricht das Schiebefenster ab und setzt Rope Theta auf 1e6. Arbeitete mit Microsoft zusammen und investierte 16 Millionen US-Dollar in die Veröffentlichung des Mistral Large-Modells, das direkt mit GPT-4 konkurriert. Mistral AI entwickelt sich ständig weiter und ist bestrebt, die traditionelle Konkurrenz zu übertreffen und neue Modelle auf den Markt zu bringen.Die Reihe von Maßnahmen von Mistral AI zeigt, dass das Unternehmen den Markt aktiv erweitert und bestrebt ist, eine führende Position im Bereich groß angelegter Sprachmodelle einzunehmen. Wir werden auch in Zukunft der Entwicklung von Mistral AI und seiner Leistung im Wettbewerb mit anderen großen Sprachmodellen Aufmerksamkeit schenken.