Стартъпът разработва ъпдейт, който ще има за цел да се справи с опасенията за пристрастия в изкуствения интелект
Снимка: iStock
OpenAI, стартъпът зад ChatGPT, съобщи, че разработва ъпдейт на своя чатбот, който потребителите могат да персонализират, тъй като компанията работи за справяне с опасенията относно пристрастията в изкуствения интелект, отбелязва „Ройтерс“.
Базираният в Сан Франциско стартъп, който Microsoft Corp е финансирал и използвал за захранване на най-новата си технология, заяви, че е работил за смекчаване на политически и други пристрастия, но също така е искал да обхване и по-разнообразни гледни точки.
„Това ще означава разрешаване на отговори на системата, с които други хора (включително и ние) може да не сме съгласни“, се казва в публикация в блог, предлагаща персонализиране като път напред. Все пак „винаги ще има някои граници за поведението на системата“.
ChatGPT, пуснат през ноември миналата година, предизвика огромен интерес към технологията зад него, наречена generative AI (генеративен изкуствен интелект), която се използва за създаване на отговори, имитиращи човешка реч.
Новината дойде миналата седмица, когато някои медии посочиха, че отговорите от новата търсачка на Microsoft Bing, захранвана от OpenAI, са потенциално опасни и че технологията може да не е готова за масово използване.
Как технологичните компании поставят ограничения за тази зараждаща се технология е ключова област на фокус за компаниите в генеративното AI пространство, с която те все още се борят. Microsoft съобщи, че отзивите на потребителите му помагат да подобри Bing преди по-широко внедряване, научавайки например, че неговият AI chatbot може да бъде „провокиран“ да даде отговори, които не е възнамерявал.
От OpenAI обясняват, че отговорите на ChatGPT първо се обучават на големи текстови набори от данни, налични в Интернет. Като втора стъпка хората преглеждат по-малък набор от данни и получават насоки какво да правят в различни ситуации.
Например, в случай че потребител поиска съдържание, което е за възрастни, насилие или съдържа реч на омразата, рецензентът трябва да насочи ChatGPT да отговори с нещо като „Не мога да отговоря на това“.
Ако бъдат попитани за спорна тема, рецензентите трябва да позволят на ChatGPT да отговори на въпроса, но да предложи да опише гледни точки на хора и движения, вместо да се опитва да „заеме правилната гледна точка по тези сложни теми“, обяснява компанията в откъс от своите насоки за софтуера.