Configurar o LLM default do provider atual
Usuários podem configurar o LLM default, que será usado quando um LLM for necessário.
Comandos como Send-PowershaAIChat, Get-AiChat, esperam um modelo, e se não for informado, ele usa o que foi definido com esse comando.
Set-AiDefaultModel [[-model] <Object>] [-Force] [<CommonParameters>]
Id do modelo, conforme retornado por Get-AiModels Você pode usar tab para completar a linha de comando.
Parameter Set: (All)
Type: Object
Aliases:
Accepted Values:
Required: false
Position: 1
Default Value:
Accept pipeline input: false
Accept wildcard characters: false
Força definir o modelo, mesmo que não seja retornaod por Get-AiModels
Parameter Set: (All)
Type: SwitchParameter
Aliases:
Accepted Values:
Required: false
Position: named
Default Value: False
Accept pipeline input: false
Accept wildcard characters: false